29 junio, 2006

Una casi Maquina del Tiempo. La maquina de Tiempo Estática.

Tomemos un sistema de referencia "fijo" A y "móvil" B. Si un objeto se mueve a lo largo del eje x a velocidad w respecto de B, tendríamos según la mecánica clásica que la velocidad de dicho objeto respecto a A es
W = v + w
además tendremos que x' = wt' que sustituida en la transformada primera de Lorentz nos da
wt'=(x-vt)/K y despejando t'=(x-vt)/(Kw)
entonces sustituyendo t' en la cuarta transformada tenemos
(x-vt)/(Kw) = (t - vx/c2)/K
y simplificando y operando paso a paso obtenemos (x-vt)/w =t - vx/c2
x - vt = wt - vwx/c2
x + vwx/c2 = vt + wt
x(1 + vw/c2 ) = t(v + w)

y como x/t será igual a la velocidad del objeto respecto al sistema A tenemos x/t = W

que es el teorema de adición de velocidades.

Así en el caso extremo de v =c y w=c tenemos que W= (c+c)/(1+c^2/c^2)= 2c/(1+1)= c
.....por muchas velocidades relativas que sumemos nunca pasaremos de C.

Bueno....pues no pasa nada.....llegar a C ya es un hito importante....y si nos mantenemos en C nuestro tiempo respecto a un observador fuera de la maquina será cero, por lo que nos mantendremos tiempo estáticos con respecto al exterior.

Nuestra sensación en dicho ingénio será que hemos dado un salto en el tiempo hacia al futuro, ya que si nos mantemos en esa maquina durante 1 minuto (tiempo medido para el de fuera) cuando la maquina se pare, nuestro reloj no habrá variado, mientras que para el de fuera habrá pasado 1 minuto. Nos habrá parecido que hemos viajado en el tiempo hacia el futuro 1 minuto.

Hemos viajado 1 minuto hacia el futuro en un instante ¡¡¡¡.

Hagamos una visualización imaginativa:

La persona que controla la maquina se queda fuera observándonos y nosotros nos metemos dentro. Nuestro controlador le da al encendido y espera hasta alcanzar los parametros adecuados y en ese instante pone el cronómetro .......son las 6 de la tarde en punto; cuando pasa 1 minuto (a las 6 y 1 minuto) para la maquina y salimos comparamos nuestros relojes y el nuestro sigue poniendo (6 en punto) y el del controlador ( 6 y 1 minuto)...¿ que diriamos ? pues ....que hemos viajo en el tiempo 1 minuto.

Esta maquina no solo es posible sino que actualmente la estoy construyendo junto con unos amigos en el sotano de mi casa.

La elaboración es hartamente compleja, mejor dicho laboriosa ya que supone una labor de ingieneria dificil.

El tamaño en esta primera fase no es para subir a una persona, solo puede ir un objeto de tamaño de un reloj, que es lo que vamos a montar.

Nuestro primer crono-nauta será un reloj ( que mejor).

Ya colocaré fotos cuando esté más elaborado, pero os adelanto que son una serie de discos predispuestos unos encima de otros en forma cónica; estos están electricamente cargados y los que hacemos en cada disco es variar la fase para que el superior gire con respecto al inferior. Con esto eliminamos rozamiento y lo mas importante el principio de acción-reacción de un disco sobre otro.

En fin esta es una breve nota para todo el que quiera participar de esta experiencia que sino sale no pasa nada....Nos habremos divertido, habremos aprendido, y si sale triunfado.

Un abrazo y a pensar.

16 abril, 2006

它的标签,你束网络

它的标签,你束网络

07 marzo, 2006

Detector de Neutrinos

En seis años veremos el Universo de una forma totalmente nueva
El IceCube estará en condiciones de detectar neutrinos de alta energía en 2012
El detector de neutrinos más grande del mundo que se construye en el Polo Sur estará terminado en 2012 y permitirá ver el “brillo” de los objetos celestes en partículas elementales y no en radiación electromagnética, lo que supondrá una visión del Universo totalmente nueva. Esta nueva visión del Universo nos desvelará muchos secretos sobre los mecanismos y procesos físicos que tienen lugar en los objetos celestes. IceCube es el nuevo telescopio: tendrá unos 5.000 sensores ópticos enterrados entre 1.5 y 2.5 kilómetros bajo la superficie helada y si detecta un flujo de neutrinos de alta energía proveniente del Sol o del centro de la Tierra, sería un buen indicio de que la teoría de Supersimetría es correcta. Por Carlos P. de los Heros.

Verano austral, un sol brillante en un cielo azul intenso.Temperatura: -40 grados. Nos encontramos en el Polo Sur geográfico, a 1.600 kilómetros de la costa más cercana, en el centro de la meseta central de la Antártida, el desierto más inhóspito del planeta. La base americana Amundsen-Scott es un hervidero de científicos que aprovechan los meses de noviembre a febrero para construir un detector de neutrinos de 1 kilómetro cúbico de tamaño a dos mil metros bajo el hielo: el detector de partículas más grande del mundo. Y no sólo el lugar es inusual, sino el aparato en sí. Pero empecemos por el principio. Astrofísica de neutrinos Los neutrinos son partículas elementales, primero propuestas como hipótesis por el físico teórico Wolfgang Pauli en 1931 para explicar la radioactividad de ciertas substancias. No fueron descubiertas experimentalmente hasta 1955. Los neutrinos son producidos en reacciones nucleares y en interacciones entre otras partículas subatómicas. Son eléctricamente neutros y tienen una masa muy pequeña, aproximadamente una billonésima parte de la masa del núcleo más ligero que existe, el Hidrógeno. E interaccionan muy debilmente con la materia ordinaria. El Sol “brilla” en neutrinos debido a las reacciones nucleares que tienen lugar en su interior de forma mucho más intensa que en luz: si el lector extiende su mano, 6 billones (con b) de neutrinos procedentes del Sol la atravesarán por segundo. Estos “neutrinos solares” fueron detectados por primera vez en 1968 y diversos experimentos los han estudiado desde entonces. Pero hay otras fuentes de neutrinos en el Universo en las que otros físicos hemos puesto nuestra atención: los fenómenos más violentos conocidos en el cosmos. Se trata de galaxias con agujeros negros supermasivos en su centro que están tragando materia continuamente, o las misteriosas explosiones de rayos gamma que los telescopios a bordo de satélites vienen detectando desde los años 60, sin que hasta el momento sepamos que mecanismos los provocan, pero de las que sabemos que durante unos pocos segundos brillan más que toda una galaxia. Los choques de partículas aceleradas en el entorno de los agujeros negros o en las explosiones gamma deben de producir neutrinos de energías fabulosas, mucho más altas que la energía que es capaz de imprimir a un neutrino una reacción nuclear en el Sol. Y es aqui dónde un telescopio de neutrinos entra en juego. Desde el invento del telescopio por Galileo, la astrofísica se ha llevado a cabo con telescopios ópticos y, con el desarrollo de la tecnología en el siglo XX, con telescopios que no sólo son sensibles a la luz visible, sino también a otros rangos del espectro electromagnético: infrarrojo o radio, por ejemplo. Pero si se logra construir con éxito un “telescopio” de neutrinos, estaremos viendo por primera vez el “brillo” de objetos celestes en partículas elementales, y no en radiación electromagnética. Es una forma totalmente nueva de mirar al Universo. Y de la cual podremos aprender mucho sobre los mecanismos y procesos físicos que tienen lugar en los objetos antes mencionados. El telescopio más grande del mundo Para detectar neutrinos poducidos en el entorno de agujeros negros lejanos o de explosiones de rayos gamma, un equipo de científicos europeos y norteamericanos comenzó a construir un prototipo de telescopio de neutrinos en 1994 en la Antártida, el telescopio llamado AMANDA, siglas de su nombre en inglés, Antarctic Muon and Neutrino Detector Array. Es la primera vez que se construye un detector de este tipo, y los ocho años que lleva en funcionamiento han servido para demostrar que la tecnología de construcción es factible y el funcionamiento prolongado del aparato es posible. En el verano austral de 2004 se comenzó a construir la extensión de AMANDA, llamada IceCube. Los neutrinos se detectan de forma indirecta: cuando un neutrino interacciona con un átomo en el hielo, se produce una partícula elemental llamada muón, con una velocidad proporcional a la energía del neutrino que la produjo. Al atravesar el hielo, los muones emiten un destello de luz azulada (llamado técnicamente efecto Cherenkov), y es ésta luz la que se detecta con unos sensores de luz enterrados en el hielo. A partir de ahí se puede reconstruir la dirección que traía el neutrino original. IceCube tendá unos 5.000 sensores ópticos enterrados entre 1.5 y 2.5 kilómetros bajo la superficie. La forma de posicionar los sensores es conceptualmente simple, pero tecnicamente compleja: con una gruesa manguera se inyecta un chorro de agua caliente a presión, que va derritiendo el hielo, creándose así un agujero de unos 60 centímetros de diámetro. Cuando se alcanza una profundidad de dos kilómetros y medio, en lo que se tarda unos dos días, se retira la manguera y se baja un cable al que van acoplados los sensores de luz. El agua del agujero se deja congelar de nuevo, quedando los sensores fijos en su posición final. IceCube consistirá en 80 de estos cables con sensores, cada cable separado unos 125 metros de sus vecinos inmediatos, con 60 sensores acoplados a cada cable. El conjunto de sensores cubrirá un volúmen total de 1 kilómetro cúbico. Las señales eléctricas que producen los sensores al detectar los destellos de luz de una interacción de un neutrino, se transmiten a un laboratorio en la superficie a través del cable, en dónde son recibidas por una serie de ordenadores y son guardadas en cinta magnética para su posterior análisis por los físicos.

El trabajo en la Antártida Cualquier operación en la Antártida es compleja, dado el aislamiento del lugar, las condiciones extremas de clima y el acceso restringido. La base Amundsen-Scott está servida a diario por vuelos de abastecimiento desde la base de McMurdo, en la costa antártica, cuando el tiempo lo permite. No es inusual quedar aislado durante unos días debido a las adversas condiciones climáticas que impiden el aterrizaje de los aviones. Todo el equipo necesario para construir el detector tiene que caber en la bodega de los aviones Hercules C30 que hacen el trayecto de tres horas desde la costa hasta el Polo Sur. Y los trabajos de construcción sólo pueden ser llevados a cabo entre noviembre y febrero cada año, cuando la base se abre a los científicos, ingenieros y técnicos. Esta es la principal razón por la que la construcción de IceCube se demorará durante seis años. Entre febrero y noviembre la base permanece cerrada al exterior. Solamente unas pocas personas permanecen en ella durante el invierno austral para encargarse de que los diversos experimentos que se llevan a cabo en el Polo Sur funcionen correctamente. AMANDA ha producido interesantes resultados científicos en sus seis años de existencia, aunque no ha detectado neutrinos provenientes de agujeros negros o explosiones de rayos gamma. El flujo de neutrinos que se espera de tales objetos es demasiado débil para que un detector del tamaño de AMANDA pueda detectarlos. Por eso esperamos que con IceCube, con un volúmen unas 60 veces mayor que AMANDA, podamos en unos pocos años “ver” el Universo en neutrinos. Teoría de la Supersimetría Pero la astrofísica no es el único campo en el que un detector como AMANDA/IceCube puede ser útil. Sabemos que el 99% de la materia del Universo es invisible, aunque no sabemos todavía de qué tipo de materia se trata. No puede ser materia compuesta por las partículas habituales, protones y neutrones, ya que eso entraría en contradicción con ciertas observaciones de las abundancias de elementos en el universo primitivo, que ponen límites estrictos a la cantidad total de materia “normal” que puede existir. Hay teorías en física de partículas elementales, como la teoría de Supersimetría, que proponen la existencia de nuevas partículas estables, supervivientes del Big Bang, y todavía no detectadas. De acuerdo con estas teorías, tales partículas se podrían acumular por el efecto de la gravedad en el interior del Sol o de la Tierra, y debido esta acumulación podrían interaccionar entre ellas, dando lugar a neutrinos. La detección de un flujo de neutrinos de alta energía proveniente del Sol o del centro de la Tierra sería un buen indicio de que la teoría de Supersimetría es correcta, y sería un complemento a los estudios que sobre ella se van a llevar a cabo en la siguiente generacion de aceleradores de partículas en el CERN, en Ginebra, y Fermilab, en Chicago. Y hay otras teorías de física de partículas que también pueden ser puestas a prueba con IceCube, como teorías que describen el espacio-tiempo con más dimensiones que las cuatro a las que estamos habituados desde que Einstein introdujo su teoría de la relatividad. En tales teorías las interacciones de los neutrinos con la materia ordinaria se verían modificadas con respecto a lo que suponemos hasta ahora, y IceCube detectaría un comportamiento “anormal” en las interacciones de los neutrinos que espera medir. Todos estos aspectos hacen que los telescopios de neutrinos sean unos instrumentos muy versátiles, con posibilidad de contribuir a muy diversos aspectos de la física, desde astrofísica y cosmología a la física de partículas, y hace que los científicos que participamos en el proyecto estemos realmente expectantes de lo que nos traerá el abrir esta nueva ventana al Universo que es la detección de neutrinos de alta energía. de alta energía en 2012
El detector de neutrinos más grande del mundo que se construye en el Polo Sur estará terminado en 2012 y permitirá ver el “brillo” de los objetos celestes en partículas elementales y no en radiación electromagnética, lo que supondrá una visión del Universo totalmente nueva. Esta nueva visión del Universo nos desvelará muchos secretos sobre los mecanismos y procesos físicos que tienen lugar en los objetos celestes. IceCube es el nuevo telescopio: tendrá unos 5.000 sensores ópticos enterrados entre 1.5 y 2.5 kilómetros bajo la superficie helada y si detecta un flujo de neutrinos de alta energía proveniente del Sol o del centro de la Tierra, sería un buen indicio de que la teoría de Supersimetría es correcta. Por Carlos P. de los Heros.

Verano austral, un sol brillante en un cielo azul intenso.Temperatura: -40 grados. Nos encontramos en el Polo Sur geográfico, a 1.600 kilómetros de la costa más cercana, en el centro de la meseta central de la Antártida, el desierto más inhóspito del planeta. La base americana Amundsen-Scott es un hervidero de científicos que aprovechan los meses de noviembre a febrero para construir un detector de neutrinos de 1 kilómetro cúbico de tamaño a dos mil metros bajo el hielo: el detector de partículas más grande del mundo. Y no sólo el lugar es inusual, sino el aparato en sí. Pero empecemos por el principio. Astrofísica de neutrinos Los neutrinos son partículas elementales, primero propuestas como hipótesis por el físico teórico Wolfgang Pauli en 1931 para explicar la radioactividad de ciertas substancias. No fueron descubiertas experimentalmente hasta 1955. Los neutrinos son producidos en reacciones nucleares y en interacciones entre otras partículas subatómicas. Son eléctricamente neutros y tienen una masa muy pequeña, aproximadamente una billonésima parte de la masa del núcleo más ligero que existe, el Hidrógeno. E interaccionan muy debilmente con la materia ordinaria. El Sol “brilla” en neutrinos debido a las reacciones nucleares que tienen lugar en su interior de forma mucho más intensa que en luz: si el lector extiende su mano, 6 billones (con b) de neutrinos procedentes del Sol la atravesarán por segundo. Estos “neutrinos solares” fueron detectados por primera vez en 1968 y diversos experimentos los han estudiado desde entonces. Pero hay otras fuentes de neutrinos en el Universo en las que otros físicos hemos puesto nuestra atención: los fenómenos más violentos conocidos en el cosmos. Se trata de galaxias con agujeros negros supermasivos en su centro que están tragando materia continuamente, o las misteriosas explosiones de rayos gamma que los telescopios a bordo de satélites vienen detectando desde los años 60, sin que hasta el momento sepamos que mecanismos los provocan, pero de las que sabemos que durante unos pocos segundos brillan más que toda una galaxia. Los choques de partículas aceleradas en el entorno de los agujeros negros o en las explosiones gamma deben de producir neutrinos de energías fabulosas, mucho más altas que la energía que es capaz de imprimir a un neutrino una reacción nuclear en el Sol. Y es aqui dónde un telescopio de neutrinos entra en juego. Desde el invento del telescopio por Galileo, la astrofísica se ha llevado a cabo con telescopios ópticos y, con el desarrollo de la tecnología en el siglo XX, con telescopios que no sólo son sensibles a la luz visible, sino también a otros rangos del espectro electromagnético: infrarrojo o radio, por ejemplo. Pero si se logra construir con éxito un “telescopio” de neutrinos, estaremos viendo por primera vez el “brillo” de objetos celestes en partículas elementales, y no en radiación electromagnética. Es una forma totalmente nueva de mirar al Universo. Y de la cual podremos aprender mucho sobre los mecanismos y procesos físicos que tienen lugar en los objetos antes mencionados. El telescopio más grande del mundo Para detectar neutrinos poducidos en el entorno de agujeros negros lejanos o de explosiones de rayos gamma, un equipo de científicos europeos y norteamericanos comenzó a construir un prototipo de telescopio de neutrinos en 1994 en la Antártida, el telescopio llamado AMANDA, siglas de su nombre en inglés, Antarctic Muon and Neutrino Detector Array. Es la primera vez que se construye un detector de este tipo, y los ocho años que lleva en funcionamiento han servido para demostrar que la tecnología de construcción es factible y el funcionamiento prolongado del aparato es posible. En el verano austral de 2004 se comenzó a construir la extensión de AMANDA, llamada IceCube. Los neutrinos se detectan de forma indirecta: cuando un neutrino interacciona con un átomo en el hielo, se produce una partícula elemental llamada muón, con una velocidad proporcional a la energía del neutrino que la produjo. Al atravesar el hielo, los muones emiten un destello de luz azulada (llamado técnicamente efecto Cherenkov), y es ésta luz la que se detecta con unos sensores de luz enterrados en el hielo. A partir de ahí se puede reconstruir la dirección que traía el neutrino original. IceCube tendá unos 5.000 sensores ópticos enterrados entre 1.5 y 2.5 kilómetros bajo la superficie. La forma de posicionar los sensores es conceptualmente simple, pero tecnicamente compleja: con una gruesa manguera se inyecta un chorro de agua caliente a presión, que va derritiendo el hielo, creándose así un agujero de unos 60 centímetros de diámetro. Cuando se alcanza una profundidad de dos kilómetros y medio, en lo que se tarda unos dos días, se retira la manguera y se baja un cable al que van acoplados los sensores de luz. El agua del agujero se deja congelar de nuevo, quedando los sensores fijos en su posición final. IceCube consistirá en 80 de estos cables con sensores, cada cable separado unos 125 metros de sus vecinos inmediatos, con 60 sensores acoplados a cada cable. El conjunto de sensores cubrirá un volúmen total de 1 kilómetro cúbico. Las señales eléctricas que producen los sensores al detectar los destellos de luz de una interacción de un neutrino, se transmiten a un laboratorio en la superficie a través del cable, en dónde son recibidas por una serie de ordenadores y son guardadas en cinta magnética para su posterior análisis por los físicos.

El trabajo en la Antártida Cualquier operación en la Antártida es compleja, dado el aislamiento del lugar, las condiciones extremas de clima y el acceso restringido. La base Amundsen-Scott está servida a diario por vuelos de abastecimiento desde la base de McMurdo, en la costa antártica, cuando el tiempo lo permite. No es inusual quedar aislado durante unos días debido a las adversas condiciones climáticas que impiden el aterrizaje de los aviones. Todo el equipo necesario para construir el detector tiene que caber en la bodega de los aviones Hercules C30 que hacen el trayecto de tres horas desde la costa hasta el Polo Sur. Y los trabajos de construcción sólo pueden ser llevados a cabo entre noviembre y febrero cada año, cuando la base se abre a los científicos, ingenieros y técnicos. Esta es la principal razón por la que la construcción de IceCube se demorará durante seis años. Entre febrero y noviembre la base permanece cerrada al exterior. Solamente unas pocas personas permanecen en ella durante el invierno austral para encargarse de que los diversos experimentos que se llevan a cabo en el Polo Sur funcionen correctamente. AMANDA ha producido interesantes resultados científicos en sus seis años de existencia, aunque no ha detectado neutrinos provenientes de agujeros negros o explosiones de rayos gamma. El flujo de neutrinos que se espera de tales objetos es demasiado débil para que un detector del tamaño de AMANDA pueda detectarlos. Por eso esperamos que con IceCube, con un volúmen unas 60 veces mayor que AMANDA, podamos en unos pocos años “ver” el Universo en neutrinos. Teoría de la Supersimetría Pero la astrofísica no es el único campo en el que un detector como AMANDA/IceCube puede ser útil. Sabemos que el 99% de la materia del Universo es invisible, aunque no sabemos todavía de qué tipo de materia se trata. No puede ser materia compuesta por las partículas habituales, protones y neutrones, ya que eso entraría en contradicción con ciertas observaciones de las abundancias de elementos en el universo primitivo, que ponen límites estrictos a la cantidad total de materia “normal” que puede existir. Hay teorías en física de partículas elementales, como la teoría de Supersimetría, que proponen la existencia de nuevas partículas estables, supervivientes del Big Bang, y todavía no detectadas. De acuerdo con estas teorías, tales partículas se podrían acumular por el efecto de la gravedad en el interior del Sol o de la Tierra, y debido esta acumulación podrían interaccionar entre ellas, dando lugar a neutrinos. La detección de un flujo de neutrinos de alta energía proveniente del Sol o del centro de la Tierra sería un buen indicio de que la teoría de Supersimetría es correcta, y sería un complemento a los estudios que sobre ella se van a llevar a cabo en la siguiente generacion de aceleradores de partículas en el CERN, en Ginebra, y Fermilab, en Chicago. Y hay otras teorías de física de partículas que también pueden ser puestas a prueba con IceCube, como teorías que describen el espacio-tiempo con más dimensiones que las cuatro a las que estamos habituados desde que Einstein introdujo su teoría de la relatividad. En tales teorías las interacciones de los neutrinos con la materia ordinaria se verían modificadas con respecto a lo que suponemos hasta ahora, y IceCube detectaría un comportamiento “anormal” en las interacciones de los neutrinos que espera medir. Todos estos aspectos hacen que los telescopios de neutrinos sean unos instrumentos muy versátiles, con posibilidad de contribuir a muy diversos aspectos de la física, desde astrofísica y cosmología a la física de partículas, y hace que los científicos que participamos en el proyecto estemos realmente expectantes de lo que nos traerá el abrir esta nueva ventana al Universo que es la detección de neutrinos de alta energía.

03 marzo, 2006

Memes y Genes como trasmisores de información.

Los memes son ideas originales, útiles o divertidas, cuyo atractivo hace que la gente las adopte y comparta con otros. La Red se ha convertido en un entorno especialmente apto para la difusión de estas ideas infecciosas, que han encontrado en la blogosfera su medio ambiente natural.
Un meme puede ser desde un broma hasta un negocio, pasando por una aplicación útil, un proyecto comunitario, una leyenda urbana, un concurso o un juego. La capacidad memética de la blogosfera se está utilizando de manera creciente para impulsar estrategias de marketing viral, en las que la idea de base circula no sólo por su atractivo (Gmail), sino también por su intencionada promoción (FON).
Un carro con ruedas radiadas no sólo lleva grano u otras mercancías de un lugar a otro; lleva la brillante idea de un carro con ruedas radiadas de una mente a otra''. Quienes vieron por primera vez este nuevo invento lo asimilaron por imitación y lo difundieron: la idea ``rueda radiada'' se transmitió por imitación aunque los carreteros pensaban que lo importante de su carga era el grano. La transmisión cultural, los procesos de formación y circulación de ideas que se imponen más o menos rápidamente en una época o en una sociedad determinada, siguen unos caminos que no son reductibles solamente a los que describen las teorías clásicas de la información o de la comunicación —que estudian los canales, los sistemas de codificación, los medios de comunicación, etc.—, y que no se reducen tampoco a los mecanismos de difusión o transmisión cultural estudiados por los antropólogos o los sociólogos, sino que supone además un proceso de asimilación mental y afectivo que se efectúa en interacción con el medio cultural, y que manifiesta los rasgos propios de un proceso evolutivo.
Desde esta perspectiva, la transmisión cultural empieza a ser estudiada por la biología y, especialmente, por la etología, que no tienen reparo en hablar, en sentido fuerte, de evolución cultural más que de mera transmisión cultural. Este estudio se efectúa en el seno de una concepción amplia de la cultura entendida de manera informacional: una cultura es información transmitida entre miembros de una misma especie, por aprendizaje social mediante la imitación, por la enseñanza o por asimilación.

También desde el ámbito de la semiología se empieza a señalar que la transmisión cultural se sustenta en procesos que impregnan el conjunto del tejido social y que van más allá de las consabidas presiones de los medios de comunicación. Así, recientemente, Umberto Eco señalaba que ``desde hace varios decenios circula la teoría según la cual los medios de comunicación no siempre crean opinión, sino que refuerzan la que ya circula. [...] Tomemos el ejemplo de la muerte de Lady Di. [...] Lo que sucedió con su muerte no fue un efecto determinado por los medios de comunicación, [...] los medios de comunicación lo reforzaron, pero dicho efecto surgió de forma independiente. [...] Los medios de comunicación interactúan con otros flujos de ideas y sentimientos que atraviesan el cuerpo social''.

La cuestión es, ¿cómo se desarrollan y transmiten estos flujos de ideas?, ¿por qué razón se adueñan rápidamente de amplias capas de la población, incluso a miles de kilómetros de distancia, de manera relativamente independiente de los medios de comunicación, como señala Eco? La cultura se transmite entre individuos de una misma especie (en este sentido cabe hablar también de cultura animal, como lo prueban, por ejemplo, los estudios sobre el aprendizaje y transmisión de los cantos de muchas aves) y en este proceso de transmisión —en el que, obviamente, tiene un papel destacado los media— se produce un proceso evolutivo. Desde hace tiempo varios autores han señalado las similitudes entre la evolución cultural y la evolución biológica. Popper, por ejemplo, señalaba las semejanzas entre el proceso del progreso científico y la selección natural, y mucho antes Leslie White también hizo consideraciones parecidas para el conjunto de la cultura. Pero desde Richard Dawkins se ha dado un paso más, ya que este autor considera la evolución cultural análoga a la evolución biológica y, en general, análoga a todo proceso evolutivo. Según Dawkins para que se dé un proceso evolutivo se requiere:
-Abundancia de elementos diferentes
-Herencia o replicación
-Idoneidad diferencial o número de copias en función de su interacción con el medio.
A su vez, la herencia o replicación precisa longevidad, fecundidad y fidelidad de las copias de los elementos o unidades que se replican. Ninguno de estos elementos hace referencia específica a entidades biológicas, por lo que, en general, describen las bases de cualquier proceso evolutivo, biológico o no. Pues bien, de la misma manera que la vida evoluciona por la supervivencia diferencial de los genes, —entidades reproductoras de los organismos vivos, sometidos a selección natural—, la cultura evoluciona mediante la supervivencia diferencial de replicadores culturales, a los que Dawkins llama ``memes'', o unidades mínimas de información y replicación cultural, y que se someten también a un proceso de selección.

El neologismo ``memes'' fue creado por Dawkins por su semejanza fonética al termino ``genes'' (introducido en 1909 por Wilhelm Johannsen para designar las unidades mínimas de transmisión de herencia biológica) y, por otra parte, para señalar la similitud de su raíz con memoria y mímesis. Según Dawkins, nuestra naturaleza biológica se constituye a partir de la información genética articulada en genes, y nuestra cultura se constituye por la información acumulada en nuestra memoria y captada generalmente por imitación (mímesis), por enseñanza o por asimilación, que se articula en memes.
Otros autores han señalado una idea semejante y han propuesto otros términos para designar estas unidades mínimas de información cultural. Así, por ejemplo, E.O. Wilson y C.J. Lumsden han propuesto el término culturgen, y aunque en las obras de dichos autores hay un más amplio tratamiento cuantitativo de la transmisión de los culturgenes, se ha acabado imponiendo la terminología de Dawkins, aunque no todos los defensores de la teoría ``memética'' compartan todas las tesis de dicho autor.

Desde la perspectiva de la teoría de los memes podemos decir que poseemos dos tipos distintos de procesadores de información:
a) el genoma o sistema de genes situados en los cromosomas de las células de cada individuo, que determina el genotipo, y
b) el cerebro y el sistema nervioso, que permite el procesamiento de la información cultural. La información genética de nuestro genoma se puede dividir en unidades mínimas de información que son los factores hereditarios o genes, que se transmiten sexualmente de una generación a otra mediante su replicación. La información cultural se transmite de cerebro a cerebro (por enseñanza, imitación o asimilación) y puede dividirse en unidades simples (tales como una idea, un concepto, una técnica, una habilidad, una costumbre, una manera de fabricar un utensilio, etc.), que, no sin cierta ambigüedad, Dawkins llama memes.

La tesis ``fuerte'' de Dawkins es que los rasgos culturales también se replican. Si los rasgos genéticos se transmiten por replicación de los genes, los rasgos culturales se transmiten por replicación de los memes o unidades de información cultural. Por analogía con la agrupación de los genes en cromosomas, se considera también que los memes se agrupan en dimensiones culturales, que pueden aumentar con nuevas adquisiciones culturales. La gran diferencia es que, mientras los cromosomas son unidades naturales e independientes de nuestras acciones, las dimensiones culturales son construcciones nuestras. Así, la cultura no es tanto un conjunto de formas de conducta, sino más bien información que especifica dichas forma de conducta.

Para el conjunto de los memes se dan las características propias de todo proceso evolutivo: fecundidad (algunas ideas son especialmente efectivas, como la idea de Dios, por ejemplo), longevidad (muchas de ellas persisten durante mucho tiempo: la monogamia, o la fe, por ejemplo) y fidelidad en la replicación (carácter conservador de las tradiciones y de muchas creencias y supuestos, especialmente las transmitidas verticalmente: de padres a hijos o de maestros a alumnos). A su vez, se dan en un amplio campo de variación, se replican a sí mismas por mecanismos de imitación y transmisión de cerebro a cerebro y engendran un amplio abanico de copias que subsisten en diversos medios. Con ello tenemos el marco general de un proceso evolutivo que Dawkins compara con la evolución biológica, e incluso llega a aceptar que los memes deben ser considerados como estructuras vivientes no sólo metafóricamente, sino técnicamente.
Los memes alternativos, que pueden servir para efectuar la misma función, son llamados alelomemes o memes homólogos. A su vez, los memes pueden agruparse formando macromemes, que constituyen un sistema de muchos memes estructurados e interrelacionados que forman un objeto cultural complejo, tal como una lengua, una teoría, una mitología, etc. En general, la mayor parte de las construcciones teóricas que sustentan la teoría de la evolución de las especies (como las nociones del pool de genes, de deriva genética, etc., son aplicadas por los defensores de las tesis de Dawkins a la teoría de los memes).

De la misma manera que los genes se replican a sí mismos sin proseguir ninguna finalidad más que la de autorreplicarse (y, evidentemente, no son conscientes de dicho proceso), los memes (como otros replicadores: el ARN, ciertos polímeros y cristales, los virus informáticos, etc.) tienden a replicarse sin perseguir tampoco ninguna finalidad: las ideas buenas no son propiamente buenas si no son capaces de ser, al mismo tiempo, buenas replicadoras de sí mismas. De esta manera, los memes son indiferentes a la verdad, como los genes son ajenos a cualquier teleología. El peinado de Lady Di (que Dennett pone como ejemplo) no es bueno en sí mismo, pero ha demostrado ser un buen replicador, aunque, como todos los memes propios de la moda, tiene poca longevidad, ya que el meme auténticamente importante es el de la moda misma. No obstante, puede suceder que una característica cultural evolucione de una determinada manera solamente porque es ventajosa para ella misma. Esto permitiría afirmar, en contra de la concepción tradicional que defiende que ``las personas creían la idea X porque X era considerada verdadera'', que se debería más bien afirmar que ``el meme X se extendió entre personas porque X era un buen replicador'', lo cual explicaría por qué, a pesar de la verdad de una idea ésta no es aceptada, o por qué, en otros casos, a pesar de su manifiesta falsedad (como las creencias astrológicas) lo es.

Ahora bien, en la medida en que —a diferencia de los genes— los memes son creación humana, interaccionan con el medio cultural que selecciona los memes en función de su idoneidad, lo que permite que, en general, coincidan los buenos memes (los buenos replicadores) con los memes buenos (que pueden ayudarnos o que permiten el progreso). De esta manera el medio cultural actúa como selección para determinar aquellos memes que pueden sobrevivir. Por supuesto, al igual que muchas mutaciones genéticas son dañinas para la especie, razón por la que no prosperan, y muchas otras son indiferentes para la supervivencia, también en los memes se producen variaciones dañinas y muchos otros memes resultan superfluos o indiferentes. Ya que el medio cultural puede estar dominado por grupos sociales, esta idea recuerda vagamente la tesis marxista: ``la ideología dominante es, en cada caso, la ideología de la clase dominante''. Pero, a diferencia de la tesis marxista, la idoneidad de los memes que permite su supervivencia, escapa al control de un grupo social determinado y sigue leyes propias y autónomas.

Al igual que los genes necesitan un vehículo para replicarse (las cadenas cromosómicas), los memes también precisan un vehículo y un soporte. El vehículo es el cerebro. Su soporte puede ser variado y no necesariamente biológico, por ejemplo: los libros, las cintas magnéticas, los discos de ordenador, las partituras musicales, etc. Así como los virus parasitan el mecanismo genético de las células, los memes actúan como parásitos de nuestros cerebros, que se convierten en medios para la difusión de aquellos. La difusión de los memes actúa, pues, de manera parecida a la transmisión de las epidemias y, como en el caso de éstas, pueden dar lugar a memes endémicos. Parafraseando (y caricaturizando) la tesis de los sociobiólogos según la cual un organismo es el medio del que se valen los genes para perpetuarse, o una gallina es el medio del que se vale un huevo para engendrar otro huevo; un cerebro humano es el medio del que se valen los memes para propagarse y replicarse.
Esta conclusión poco halagüeña para la soberbia individual debe ser considerada en el marco de la concepción evolutiva e interaccionista del yo: un individuo es, a la vez, el producto de la evolución biológica y de la evolución cultural efectuada en interacción con otros yoes, tesis que forma parte de la revolución en contra del narcisismo antropocéntrico, como lo fue en su día la revolución copernicana, el darwinismo o la teoría freudiana del inconsciente. Desde este punto de vista esta tesis se vincula a la concepción estructuralista de la muerte del sujeto y al fin del dualismo y del racionalismo cartesiano.

La teoría de los memes está siendo desarrollada por varios investigadores, que la unen a las tesis de Lumsden y Wilson o que las vinculan con los estudios de Luca Cavalli-Sforza. Además del mismo Dawkins, F.T. Cloak, J.M. Cullen, E. Moritz, A. Lynch y algunos otros autores, son los representantes de esta concepción de la transmisión y evolución cultural. Como explicación de la evolución de la cultura todavía aparece como una pre-teoría en fase de acumulación de datos y de elaboración de un aparato matemático suficiente. Los estudios de Cavalli-Sforza y Marc Feldman proporcionan una buena base de partida para el estudio cuantitativo de la transmisión y evolución cultural, aunque estos autores no defienden exactamente la teoría ``fuerte'' de los memes de Dawkins.
En cualquier caso estos estudios iniciados desde la perspectiva de la genética, la sociobiología y la etología son la primera aproximación no meramente cualitativa al proceso de la transmisión y evolución cultural, y pretenden ampararse en la tradición científica (un buen meme, por cierto) del evolucionismo. Pero mientras los procesos evolutivos biológicos se rigen por el modelo darwiniano, la evolución de la cultura, con intervención humana directa, parece seguir más bien un modelo de tipo lamarckiano de transmisión de caracteres adquiridos, lo que permite una evolución rapidísima —potenciada por la velocidad casi instantánea de los medios de comunicación— comparada con los procesos darwinianos. En cualquier caso, la constitución genética humana está determinada por unos 3.000 millones de nucleótidos procedentes del DNA materno y por unos 3.000 millones más procedentes del DNA paterno. Pero las neuronas del sistema nervioso son 10.000 veces más numerosas y las conexiones entre ellas todavía muchísimo más. De ahí que intentar la creación de un modelo matemático (meme respetable donde los haya) que permita entender la evolución cultural sea todavía una empresa harto dificultosa que, no obstante, empieza a ser acometida por los autores mencionados y por los teóricos de la inteligencia artificial (en este sentido van los estudios de D. Dennett, D. Davidson y otros filósofos que defienden la ``memética'').

Por otro lado, vista desde la perspectiva de la filosofía, la doctrina de los memes tiene antecedentes en tesis clásicas. En cierta forma puede verse como un peculiar desarrollo de la teoría de las ideas platónicas; de la teoría averroísta del entendimiento agente; como una interpretación de la filosofía del espíritu de Hegel o de la teoría de la ideología de Marx, o de la diferencia husserliana entre noesis y noema; e incluso se podría relacionar con las tesis orteguianas sobre las generaciones. Pero su proximidad mayor es con la teoría de los tres mundos de Karl Popper y su defensa de un conocimiento objetivo sin sujeto cognoscente. No obstante, de manera semejante a estas teorías, se mueve todavía en el terreno de las analogías y las metáforas, al menos hasta que consiga un desarrollo cuantitativo y matematizado, y sea capaz de establecer con mayor precisión (como pasa con a la teoría del mundo 3 de Popper) qué debe entenderse propiamente como meme. ¿El meme de la teoría de los memes se demostrará un buen meme? ¿Será capaz de replicarse hasta convertirse en una teoría respetable?

02 marzo, 2006

Equinocio Informático y Sentido común.

Stanislav Petrov (1939) era un teniente coronel del ejercito soviético durante la Guerra Fría. Es muy poco conocido, aunque muchas personas le consideran un héroe por haber salvado a la Humanidad de la Guerra nuclear.

El 26 de septiembre de 1983 se produce el llamado Incidente del Equinoccio de Otoño, que colocaba al mundo a escasos segundos de la Guerra Termonuclear Total.
A las 00:14 AM (hora de Moscú) un satélite soviético dio la alarma: un misil balístico intercontinental americano se había lanzado desde la base de Malmstrom (Montana) y en 20 minutos alcanzaría la U.R.S.S.
Stanislav Petrov estaba a cargo del bunker Serpukhov-15, el centro de mando de la inteligencia militar soviética desde donde se coordina la defensa aeroespacial rusa; su misión era verificar y alertar de cualquier ataque a sus superiores, con lo que se iniciaría el proceso para contraatacar con armamento nuclear a los E.E.U.U.

En principio Stanislav Petrov pensó que debía tratarse de un error porque no tendría sentido que los americanos atacaran con un único misil. Más tarde los ordenadores indicaron que cuatro misiles más se dirigían hacia Rusia.
Stanislav Petrov creía que los ordenadores podían equivocarse, y volvió a pensar que sólo eran cinco misiles y E.E.U.U. tenía cientos. Decidió esperar y finalmente se descubrió que era una falsa alarma, causada por una rara conjunción astronómica entre la red de satélites rusos de alerta, la Tierra y el Sol, coincidiendo con el equinoccio de otoño: el Sol se elevó sobre el horizonte en un ángulo tal que coincidía con el área tangencial de cobertura de todos los satélites que vigilaban los campos misilísticos norteamericanos, y esto produjo en sus sensores señales térmicas espurias.
Cuando le preguntaron por qué no había dado la alerta, contestó simplemente: “La gente no empieza una guerra nuclear con sólo cinco misiles“.

Este incidente avergonzó a altos cargos soviéticos y consideraron que el teniente coronel Petrov se equivocó en su decisión, por lo que le castigaron y ocultaron el incidente. Hoy Stanislav Petrov sobrevive solo, con una pequeña pensión en un diminuto apartamento en Friasino (a 40 km de Moscú).

11 enero, 2006

¿ Por qué la Velocidad de la Luz es la máxima posible ?

Esta cuestión que planteamos es muy interesante. Por qué nada puede acelerar más allá de 299.792,5 Km por segundo?.

Actualmente cuando leemos esta cuestión en los libros, nos dicen simplemente que la Física lo prohibe, que la Relatividad lo impide, que no se puede más porque haria falta una energia infinita para ello, que ..., que ...., en fin etc....; pero no me explica nadie por qué realmente. Que ocurre para que eso no pueda ser así.

Las particulas que conforman la Luz se llaman Fotones. Un Fotón no es más que un paquete o Quanto de energia, pero que tiene un nombre propio que es Fotón, para diferenciarlos de otros paquetes o Quantos distintos. Así pues un Fotón es la particula energetica que conforma la luz.

La Energia de un Fotón, responde a la fórmula siguiente: (( E= h. V )); donde (h) es la constante de PlanK y (V) es la frecuencia de la luz que estemos estudiando, por ejemplo la luz visible que vemos diariamente, o la luz infraroja, etc...

En el articulo" La Naturaleza del Universo", dijimos que un conjunto de particulas, conformaban una Masa; entonces: ¿La luz es una Masa?. Pues, la respuesta es que tecnicamente Si, y esto es cierto para un conjunto de Fotones, pero no para uno solo. Cuando estudiamos a la Luz como un conjunto de fotones, es decir como Masa según este razonamiento, esta se comporta Corpuscularmente, pero cuando lo estudiamos fotón a foton no se comporta así, se comporta como una onda.

De ahí lo que se conoce como la doble naturaleza de la Luz: Dualidad Onda-Corpúsculo.

Pero....si un foton es pura Energia, y no tiene masa lo atrae la gravedad de otros cuerpos ?.
La respuesta es que si. Cualquier particula es atraida por otras como ya hemos dicho anteriormente en otros articulos, y más aún cuando es individual. Pero....¿ un Rayo de Luz es desviado por la gravedad, aunque los fotones no tengan Masa y sean pura Energia ?. Definitivamente, y si has seguido el razonamiento anterior, la respuesta es Si.
Un rayo de Luz se desvia en presencia de un campo gravitatorio, en mayor o menor grado dependiendo de lo intenso que sea el campo gravitatorio. Para que esta desviación sea apreciable debe de ser un campo gravitatorio muy intenso, como por ejemplo el que proporciona nuestro Sol. Esto es así porque la Luz de por si, es "muy energética", luego se "siente" muy atraida por otros conjuntos de particulas (en este caso el Sol), poque es el "Sol" el que tiene menos Energia en conjunto y por eso la Luz cede esta Energia acercándose a él.

Einstein predijo esto, y como no podia entender como era posible que una particula sin Masa (fotón) fuese atraida por un campo gravitatorio (Sol), decia que en realidad la Luz no se desviava, sino que el Sol "curvaba" el espacio por el que circulaba la Luz y por eso parecia que la luz se desviaba.

En realidad Einstein lo que consiguio con su Teoria, fué crearnos un concepto para que nos fuese más facil visualizar todo esto. Nos dijo que la gravedad curvaba el espacio, para que así nos fuese más facil entender el comportamiento de las particulas o conjunto de partículas y de las ondas; ese fué su gran éxito y en ello radica su genialidad.

Su famoso Efecto Fotoeléctico, que le permitió obtener el premio Nobel, no hace más que confirmar este razonamiento.
El decia que un fotón si incidia sobre un metal por ejemplo, haria saltar del metal electrones que se podrian medir, ya que el fotón lo que habia hecho habia sido suministrarle a los átomos del metal energia adicional, que para compensarla emitian electrones. Además el nº de electrones que se emitian, no dependia del numero de fotones que incidiesen sobre la placa metálica, sino de la energia de estos, es decir de como he estado explicando anteriormente durante todo este razonamiento, de la compensación de energia de las particulas.

Después de todo este razonamiento, estamos en disposición de entender por qué la luz es la máxima velocidad.

Cuando hay masa se degrada en un factor de C2, luego cuando no la hay esta esta al máximo es decir C2,; por consiguiente para mantener este estado debe estar a C, sino vuelve a degradarse. Es por ello por lo que una singularidad va a C por el universo; se ha convertido en pura energia.

Una masa que se acelere gana en energia (gana por tanto masa), y es por ello por lo que en el siguiente "empujón" habrá que sumistrarle mucha más cantidad de energia que antes, para que adquiera el doble de la aceleración que poseia. Por ello las masas se oponen al movimiento (inercia), porque "no quieren" energia, ya que si la obtienen se desequilibran energeticamente y deben ceder energia; de hecho cualquier objeto en movimiento lleva asociado una longitud de onda y por tanto desprende energia en función de su velocidad, aunque estos efectos solo son apereciables a velocidades muy altas en objetos macroscópicos.
Las masas solo "quieren eliminarse a si mismas" para convertirse en pura energia, que conseguiran una vez hayan alcanzado (C) como energia y no como su forma residual, es decir masa.
Un abrazo y a pensar....

10 enero, 2006

La Naturaleza del Universo.

El universo es difícil de imaginar y probablemente nunca lleguemos a entenderlo en su totalidad ya que nosotros, los humanos, no estamos preparados biológicamente para entender algo que excede de nuestras competencias y aún más cuando hemos llegado a él con la función ya empezada; es igual que si llegamos a ver una película cuando está por la mitad, tardaremos más en comprenderla que si la hemos visto desde el principio.

Sin embargo y conociendo las dificultades no debemos decaer en el intento de hacer los esfuerzos necesarios para comprender lo que nos rodea, y el universo nos rodea.

Una de mis preocupaciones más intensas que siempre he tenido, ha sido la de visualizar las leyes físicas, de ver en realidad como está pasado, de saber visualmente como se mueve, fluye, se estira contrae y dilata el universo. He necesitado siempre saber porque la gravedad es atractiva, y visualizar porque eso ocurre y por qué; cual es la razón y verla.

Cuando se creo el concepto de CAMPO, se avanzó mucho en esa visualización; podemos imaginar fácilmente a través de este concepto, como llega la gravedad, por ejemplo, a otros puntos. Pero este concepto, es lo que la misma palabra indica, un concepto, no es real, es simplemente una forma de ver lo que está pasando, es un esquema mental que nos sirve para entender, pero no existe realmente así; simplemente es un símil.

Es más importante entender cual es la realidad. ¿ Por qué una masa con una intensa gravedad atrae a otra ?; es decir cual es la razón de que eso sea así,¿ por qué no puede ser de otra manera.?

Albert Einstein dijo una vez: “Me gustaría saber cuales fueron las distintas opciones que tuvo el buen Dios para configurar el universo, y porque finalmente eligió está en contra de las demás.”

Vamos a empezar a resolver esta cuestión intentando identificar que es una Masa.

Una Masa es un conjunto de partículas que unidas de una u otra forma configuran una serie de distintas propiedades, como por ejemplo, dureza, elasticidad, color, etc....
Así pues, en esencia la Masa es un conjunto de partículas.

Configuren las propiedades que sean, el hecho es que cuando se aglutinan para formar una masa tienden a agruparse entre ellas.

Así pues, para seguir conociendo la esencia de una masa, bajamos un nivel más e intentaremos definir que es una partícula.

Una partícula, es una unidad indivisible de Energía. Advertimos que digo indivisible, porque me he bajado al nivel más pequeño que exista, aunque no lo conozcamos; es decir no me meto si la partícula en la que estemos pensando sea divisible o no lo sea, el hecho es que siempre debe existir una unidad mínima de energía, ya que sino no existiría energía. Para que exista energía debe existir algo de energía, por muy pequeña que esta sea, pero debe existir para que sea.
Por consiguiente, llegamos a la conclusión que la masa es energía.

Este razonamiento, coincide con la fórmula de Einstein que señala que E=m.c2.

Como señala la formula, la masa es energía; la masa y la energía son equivalente, es decir son lo mismo. Son sinónimos.

Cuantitativamente, la Energía es algo menor que la Masa, ya que vemos en la formula que esta multiplicada por una constante. Esto nos indica que cuando la energía se agrupa pierde potencial, debilitándose en un grado que equivale a una constante, que en este caso es (c2); con lo cual llegamos a la conclusión que la Masa es una forma “pobre” de Energía; es decir cuando la energía se agrupa, pierde poder.
Como todos sabemos, cualquier clase de energía, fluye de estados mayores a estados menores; por ejemplo, una temperatura alta tiende a fluir hacia un estado menor de temperatura en contacto con una temperatura menor y no al revés.
Si esto es así, es fácil concluir que una partícula aislada es más “poderosa”; es decir está más cargada de energía, que dos unidas; luego es fácil visualizar que una partícula en presencia de otra tenderá a dejar fluir su exceso de energía que por naturaleza posee por ser individual, hacia la otra, y unirse y formar otra partícula distinta que a su vez irá haciendo lo mismo sucesivamente. Por consiguiente, todas las partículas tienden a unirse, para buscar un equilibrio energético. Cuando alcancen ese equilibrio energético, se convertirán en una sola, y esto solo ocurrirá en el caso en el que todas las partículas estén unidas; es decir, cuando se alcance un solo equilibrio energético.

Os preguntareis muchas cosas, como por ejemplo, ¿ por qué dos particulas cargadas con el mismo signo se repelen ?. La respuesta es que no tiene nada que ver con lo anteriormente planteado.

Una partícula de este tipo, ya está formada por muchas otras que anteriormente han seguido este camino como os he dicho. La Energía de ellas sigue respondiendo a esta regla, lo que ocurre es que presentan debido a su particular agrupamiento y estado evolutivo una naturaleza que le hace presentar propiedades particulares, que compensan la de otras en otros estados evolutivos de equilibrio energético. Dos protones en teoria no se pueden unir, pero si insistimos se unen a través de la fuerza nuclear fuerte liberando energía, es decir liberando otras partículas que empezaran a seguir su curso evolutivo después de ese proceso.

Cuando el agrupamiento energético se acumula, este se va convirtiendo en un punto de equilibrio energético muy interesante y apetecible para otros puntos de agrupamiento energético distintos, por lo que se convierte en un sumidero muy poderoso, incluso llegando a convertirse en lo que los físicos llaman Singularidad, que es cuando la energía de escape de ese sumidero equivale a la de la velocidad de la luz, por lo que es imposible escapar; se ha convertido en un atractivo e implacable punto de energia.

Un abrazo y a pensar.

04 enero, 2006

Refutando a Lynds

Sin duda me encanta que haya gente audaz que quiera refutar a la ciencia...pero....¿¿es la unica forma de avanzar??.

Evidentemente no. Un avance en la ciencia no quiere decir que lo anterior total o parcialmente esté mal, sino que simplemente se ve reforzado por una nueva idea o se crea una teoria que ayuda a consolidarlo.

Peter es de esos chicos como yo inquieto por la vida y que no se conforma con lo que le dan escrito.

Peter se debe sentir sumamente orgulloso cuando lo comparan con Einstein. Es indudable que cualquiera se sentiria alagado y su ego se multiplicaria por 1000 ya que evidentemente que lo comparen con una personalidad de tal calibre es maravilloso. Debe estar en el septimo cielo; yo lo estaría.

Sin embargo Peter lo único que ha hecho ha sido trasladar las hipótesis de Zenón de Elea a la Física, y es más, ni siquiera se ha salido del ámbito en el cual el célebre filosofo las expuso.

Zenón de Elea, dejó a sus contemporaneos asombrados y a todos los que lo hemos leido después porque se dio cuenta que el INFINITO es un problema grave cuando lo estudiamos y lo tenemos en cuenta.
Zenón, dijo que el Espacio y el Tiempo podia dividirse infinitamente, ya que por ejemplo, las matemáticas así lo permitian. Un número se puede dividir infinitamente, asi pues, una longitud por ejemplo tambien.
Para visualizar lo que Zenón queria expresar, el mismo inventó un ejemplo que consistia en realizar una carrera entre el mismísimo Aquiles y una simple Tortuga. Afirmó que con que a la Tortuga, Aquiles le diese un solo metro de ventaja, Aquiles nunca podria alcanzarla.

Zenón explicó que para que Aquiles pudiese alcanzar a la tortuga, el tendria primero que recorrer la mitad de la distancia que los separaba, es decir medio metro. Después Aquiles deberia otra vez recorrer la mitad de lo que le quedaba, es decir, la mitad de ese medio metro, y así sucesivamente, con lo cual nunca la llegaria a alcanzar.

Si os dais cuenta lo único que vemos raro en este razonamiento es que no se da en la realidad, porque efectivamente y sin dudarlo siempre Aquiles debe recorrer la mitad de la distancia, y siempre hay una mitad plausible de recorrer; ademas de que es obvio que Aquiles alcanza a la Tortuga. Entonces, ¿ donde está el error ?.

¿ Las matematicas estan mal costruidas ?, ¿ que pasa ?. ¿ Donde falla Zenón ?.

Zenón, llevaba razón: El Espacio es infinitamente divisible, y tambien el Tiempo; pero lo que no és infinitamente divisible es el Espacio-Tiempo.

Tuvo que llegar Einstein para que nos diésemos cuenta de que el espacio y el tiempo, no están separados. El espacio y el Tiempo son Uno y los dos fluyen al unísono amoldándose continuamente.

Cuando Aquiles avanza su tiempo visto por la Tortuga es menor, aunque para él lo que disminuye es la longitud de la distancia que recorre; es decir el al moverse observa como el camino que ha de recorrer es menor de lo que la tortuga ve, ya que la tortuga no puede entender como en ese espacio de tiempo ha recorrido esa distancia que de otro modo no hubiese podido hacer. Es decir, por cada unidad de tiempo que pasa la longitud ha andar es menor por dos motivos por el avance y por la contracion de longitud, y a la vez esta por unidad de longitud, mas tiempo moviéndose.

Es lo mismo que le pasa a los Muones.Los Muones son unas particulas que se producen cuando existe una reacción atómica con otras particulas que ahora no vienen al caso; es decir: son el producto de esta reacción atómica.Fundamentalmente esta reacción se da cuando las partículas cargadas de mucha energia que vienen de nuestro Sol chocan en la alta atmósfera terrestre con particulas que existen a esas alturas y que forman parte de nuestra atmósfera. Estas reacciones se dan a unos 80 ó 90 Km de altura y como consecuencia de ellas como he dicho se producen Muones (sub-productos de esta reacción).La vida de estos Muones es diminuta, apenas de una millonésima de segundo; pero y aquí viene el misterio, estos Muones tambien se detectan en la superficie de la tierra.La cuestión salta inmediatamente: ¿ Cómo es posible que se detecten Muones en la superficie de la Tierra, cuando estos se originan a unos 80 ó 90 Km de altura y con la vida tan corta que tienen son incapaces de rrecorrer esa distancia ?.Pues si....es una buena pregunta. Si la velocidad es igual al espacio entre el tiempo empleado, en una millonésima de segundo es imposible recorrer 90 Km, ni siquiera a la increible velocidad de la Luz.¿ Cómo podriámos contestar o dar explicación a esto ?:Diríamos varias cosas: Que se producen Muones tambien en la superficie Terrestre, o que el espacio, la Longitud, la distacia o como querais llamarlo se ha acortado para el Muón, o por otro lado que el Muon ha vivido más de lo esperado.Ha excepción de la primera (descartada por comprobación), todo lo demás sirve y es correcto....y esto es la teoria de la Relatividad; es decir hay un hecho, que es esto que le ha pasado al Muón, y otro hecho, desde el punto de vista del Muón el ha recorrido menos distancia de la que nosotros decimos, desde nuestro punto de vista el ha recorrido la distancia de 90 Km pero ha vivido más, luego su tiempo se ha relentizado; es decir es el mismo hecho pero desde donde lo observemos se explica de diferente forma, o que la longitud se hace mas corta (se contrae) o que el tiempo se hace mas largo ( se dilata).En realidad como ya he dicho, es lo mismo: El espacio y el tiempo, dos caras de la misma moneda; para que desde un punto de vista se contraiga el espacio desde el otro punto de vista ha de dilatarse y viceversa.

Volviendo a Lyns diremos que él ha trasladado el problema de Zenón a la mecánica clasica comparándola con la cuantica. Lyns dice que como no podemos determinar un tiempo mínimo ya que el tiempo es infinitamente divisible, tampoco podremos determinar la posición de un objeto en un instante, ya que este siempre estará moviéndose porque siempre habrá un instante menor del que pretendemos estudiar en el que el objeto estará moviéndose, por lo que según Lyns nunca un objeto en movimiento estará quieto. Es decir, cuando queremos estar la posición de un objeto en un instante dado, este hecho no lo podemos hacer ya que el objeto en ese instante dado nunca estará quieto y ya que si lo estuviera entonces no estaria moviéndose.

Se observa, que Lyns no ha tenido en cuenta a Einstein y que no considera al espacio y al tiempo como Uno. Si Lyns lo hubiese tenido en cuenta se daria cuenta que en cada movimiento existe un desplazamiento temporal que cancela el infinito propuesto por Zenón.

Además los objetos que se aceleran, tienden inevitablemente a pararse en un máximo, ya que las velocidades acumuladas inevitablemente llegaran a (C), es decir al alcanzar (C) el desplazamiento temporal es máximo y no puede compensar más la contracción de longitud. Por esto, con respecto al universo, la quietud es ir a la velocidad de la Luz (C). No se crea espacio al ir a la velocidad de la Luz, ya que no hay contracción Temporal, que cancele ese infinito.

Un abrazo y a pensar.

Ricardo Lopez Martínez.

Letter to Peter Lynds

Dear Peter:

Write you is for my an immense one to please to be able to discuss with you some things on which you have exposed in your Web,s page. Ever since you I found sailing by Internet, been very I have interested in your thoughts.

My name is Ricardo Lopez, I was born the 13 of March of 1974 in Seville, a city to the south of Spain. I am licensed in Physics, although unfortunately I dedicate myself to the real estate business like life means. My great passion is the Physics and the Philosophy like you, and I hope to find in you a good friend with whom to be able to discuss our restlessness. I feel not to be able to express to me in English correctly, I hope that you are able to understand to me.

I am very interesting what you have written on the movement and the time, has liked much that you were based on theses of Zenón de Elea. Nevertheless there is something in which I differ with you. The Thesis of Zenón is based on considering separately to the space and the time; taking itself separately they are infinite, are possible to be divided infinitely; but if we considered them together they are not infinitely divisible.

The time tends to 0 if accelerated movement exists. The maximum is C. When we cross 299,792.5 km in 1 second the time is 0, soon if we can determine a minimum moment in which exists movement; from this point the length contraction is Max and the expansion of time is Max.

Nevertheless this nonsingle happens when we reached C, happens gradually in any change of position state. In order to change of position it is necessary to accelerate, soon will exist a contraction of the space.
In the example of Zenón, Aquilles accelerated to reach to the turtle, but towards with an invariable time, soon not tapeworm in consideration the temporary distortion nor the contraction of the Length of the space. If Zenón had considered it, Aquilles had reached to the turtle as in fact it happens, since the space seen by Aquilles in each acceleration is shorter or what it is the same, the turtle would see that Aquilles is but accelerated time. This means that I cannot be changing of position with respect to the space of infinite form since I cannot accelerate infinitely. Therefore if I can determine the position of an object at a given moment since we must consider to the space and the time of joint form as it established Einstein.

I wait for your answer.

A happy hug and 2006.

Ricardo Lopez Martinez.

Masa Inercial y Masa Gravitatoria

Feliz 2006.

El caso que me lleva ocupando la cabeza por varios años es el concepto de masa y de gravedad. Una de las cosas que siempre me ha intrigado es el concepto de masa inercial y masa gravitatoria y su principio de equivalencia. En concreto me interesó mucho a la conclusión que llevo a Einstein a pensar que era un principio, y en su empeño en decir que no habría ningún experimento que fuese capaz de distinguir si estábamos en un campo gravitatorio o estábamos moviéndonos con una aceleración uniforme.

Llevo muchos años pensando sobre esto, y la verdad que fué en el año 2000 cuando llegué a la conclusión que ahora 6 años después voy a comentar publicamente.

La idea principal de mi argumento es que no es posible mantener una aceleración uniformemente acelerada cuando hay movimiento. No se puede mantener la aceleración en constante. Siempre la aceleración va a estar en función del tiempo, así pues la aceleración será decrementada por un factor que depende del tiempo y con un máximo en él. En cada aceleración, habrá una desaceleración.


Esto dicho así resulta bastante paradójico; estamos hartos de mantener vehículos a aceleraciones Cte., y parece que no existe ninguna pega en ello, y esto es así pero para velocidades relativamente bajas, ya que este factor de desaceleración es prácticamente despreciable. Sin embargo si miramos el asunto en velocidades próximas a la luz veremos que la cosa cambia. Mi idea es que una vez en (C) es imposible acelerar, no es posible que por ejemplo, una partícula subatómica supere (c), es decir, se acelere más allá de (c), por lo que vemos que los efectos de desaceleración en incrementos de velocidades cercanos a (c) serian muy fuertes ya que en esos extremos tenderíamos a mantener una velocidad Cte. , es decir el máximo, que es en (c). Un muón, por ejemplo, moviéndose a una aceleración Cte. sufriría una desaceleración muy importante cuando tenga que pasar por ejemplo de 0.98C a 0.99C.

Todo esto me llevó a la idea del experimento del principio de equivalencia. Cuando estamos sobre la superficie de objeto másico sufrimos una fuerza de atracción, y por consiguiente una aceleración que esta si que es Cte. ya que no hay movimiento. Pero si nos movemos con una supuesta aceleración Cte., es decir pasando de una velocidad inicial a otra sucesivamente, llegará un momento en que las velocidades acumuladas sean muy altas y esos incrementos de velocidad se hagan más lentos por estar aproximándonos a (c), es decir no podremos mantener una aceleración Cte., esta dependerá de lo cerca que la velocidad acumulada este de (c), y por consiguiente del tiempo.

Por consiguiente, un experimentador a bordo de una nave uniformemente acelerada no tendría ninguna duda de donde está; es decir si le preguntan si está sobre la superficie de un planeta con una aceleración (g) o si esta moviéndose con aceleración Cte. de (g), este podría contestar fácilmente ya que podría ir midiendo su peso en función del tiempo que llevara dentro y podría comprobar que éste irremediablemente disminuye. Las disminuciones serian prácticamente nulas si los saltos de velocidad están alejados de (c) pero con el paso del tiempo irremediablemente los saltos de velocidad se acercaran a (c) y por consiguiente la aceleración disminuirá y así su peso.

Cómo Vf = Vo + a t. Si partimos de una Vo=0, tenemos que Vf = a t ; cómo la Vf será siempre y cómo máximo (c), tenemos que C = a t ; por consiguiente si sustituimos en la primera ley de Newton tenemos que la fuerza percibida por nuestro experimentador será F = m (c/t) para cualquier cuerpo uniformemente acelerado o supuestamente uniformemente acelerado.

Así podemos comprobar que la masa inercial no es igual a la masa gravitatoria ya que la inercial depente del tiempo.

La Fuerza que registra el imaginario astronauta o la partícula subatómica que sea como consecuencia de su aceleraciones se decrementa para él o para ella misma.

Miren estos simples cálculos:
F1 = m aF2 = m (c/t)El decremento que experimenta F1 para un movimiento uniformemente aceleradopor unidad de tiempo (1s) es:Decremento de F1 = F1/ (mc) o lo que es lo mismo Decremento de F1 = F1/ Psiendo P la cantidad de movimiento en (c); evidentemente por unidad detiempo. Para otro tiempo se le multiplica el (t).Así para toda unidad de masa ( m ), que sufre una ( F1 ) de ( 1 N ) generaun decremento en ( 1 s ) de: ( 1 N / c ) que es 0.00000000334 N.Es muy pequeño para medir....pero creo que se podria medir.Así al alcanzar (c) no existe aceleración y por consiguiente no hay fuerzasubyacente.
Esto concuerda con que la Energia que hay que suministrarle a un cuerpo para alcanzar (c) es infinita, por lo que nunca se alcanzaria, manteniéndose en orden la ecuación E=mc^2; los incrementos en Energia son iguales a los incrementos de la la masa por una constante al cuadrado.

Resumiendo:
El planteamiento seria que como un objeto no puede estar acelerándose infinitamente ya sea a aceleración cte, o no cte., pues..... sabemos que para que un objeto cambie deaceleración ( positiva o negativa ), debe de aplicarse una fuerza. Bueno, pues desde un sistema de referencia exterior se verá que a medida que se alcanza(c) la masa aumenta, pero desde dentro se verá que debo dar más energía solamente......¿ pero por qué ? ....pues porque nos encontramos con quetenemos una fuerza encontra que disminuye nuestra aceleración en función deltiempo en que nos estemos acelerando...(E=mc^2). La Fuerza de empuje se decrementa en elfactor que expresé anteriormente. Es por ello por lo que estárelacionado con la inercia, ya que esta es la resistencia de un cuerpo amoverse. Esta inercia al cambio de estado es: F= m. a....pero además habráque sumarle la anterior.

Fíjense que según la fórmula en el limite (c) es cero. Efectivamente debe ser así en (c) no hay aceleración ....hay velocidad cte.

Creo por ejemplo, que si lanzamos una nave espacial durante mucho tiempo viajando, veremos que si sumamos los incrementos en aceleraciones y velocidades acumuladas como consecuencia de los distintos impulsos gravitatorios, obtendriámos un resultado que no seria el teórico, ya que no habríamos contado inicialmente con lo planteado anteriormente. Según lo que creo detectariamos una posible desaceleración, minúscula pero que creo que se podria medir. Esta desaceleración seria consecuencia del decremento de fuerza anteriormrnte explicado.

Un abrazo y a pensar todos....

Ricardo

11 noviembre, 2005

El CO2....¿ Elixir de la eterna juventud ?


Desde la Revolución Industrial, la vida humana se ha prolongado de manera inusitada y constante. Año tras año, la esperanza de vida aumenta, sin que los científicos sepan definir muy bien por qué. Avances médicos y la mejora de la calidad de vida podrían ser algunas de las razones. Sin embargo, quizá la contaminación tenga aún reservadas algunas sorpresas: el calor -originado por el calentamiento global- prolonga el tiempo de vida, y el excesivo CO2 en la atmósfera provoca que las plantas produzcan mayor cantidad de algunas sustancias que frenan la acción de radicales libres que se asocian con el envejecimiento.
Durante los últimos dos siglos ha habido un aumento muy significativo de la temperatura de la Tierra, quizá de consecuencias tan radicales como las de la última glaciación. La cantidad de CO2 presente en la atmósfera, además, ha superado las concentraciones de cualquier otra época. Ambas características de nuestro medioambiente han afectado la vida en la Tierra y la salud humana, tema éste último que ha preocupado durante mucho tiempo a los expertos. Sin embargo, hay una cuestión que se ha empezado a tener en cuenta desde hace poco: el aumento de la longevidad. ¿Tiene algo que ver el cambio climático con el incremento desmesurado de la esperanza de vida en el ser humano?.
En el año 2000, la revista Nature publicaba un estudio de los investigadores Li Tuljapurkar y C. Boe en el que se relacionaba la longevidad con la cantidad de CO2 en el aire, aunque se advertía que los análisis a este respecto eran aún muy escasos. Las investigaciones señalaban que podía haber una relación entre las concentraciones de este gas contaminante y el aumento de la esperanza de vida en el Hombre, debido a que el CO2 propiciaba el desarrollo de ciertas sustancias en las plantas, que eran buenas para nuestra salud. Incrementos en la cantidad de vitamina A y C podían ser consecuencia de una respuesta de la vegetación a las altas concentraciones de este gas contaminante en el aire. Asimismo, se había podido observar que el aumento del CO2 en plantas resultaba efectivo en la lucha contra diversas enfermedades, como el cáncer o las insuficiencias cardiacas. En lo que respecta al calentamiento global, las altas temperaturas siempre ayudan a que la vida se prolongue, mientras que el frío produce en general muertes más prematuras. Reducción drástica de la mortalidad Tal como explica en un documentado artículo la revista CO2 Science, la mortalidad ha disminuido en los países desarrollados espectacularmente en los últimos 150 años.
El estudio de Tuljapurkar señalaba ya que en el periodo que va de 1950 a 1994, en Canadá, Francia, Alemania Occidental, Italia, Japón, el Reino Unido y Estados Unidos, la esperanza de vida aumentó exponencialmente manteniendo un rotundo incremento constante. En la Antigüedad, la gente moría como media a la edad de 20 años, y ahora aspiramos a vivir hasta los 80. Asimismo, este aumento de la esperanza de vida ha mantenido el ritmo con el paso del tiempo, y su aceleración no ha menguado. ¿Por qué ha aumentado tanto nuestro tiempo de vida? ¿Continuará aumentando en el futuro? Evidentemente, los adelantos médicos y los hábitos de salud han mejorado nuestras posibilidades. En la actualidad, se superan enfermedades que antes resultaban fatales: infecciones, parásitos, malnutrición, problemas en el embarazo y en los partos, enfermedades degenerativas, etc. También se mantiene con vida durante más tiempo a enfermos crónicos. Pero lo cierto es que, además, los mayores duran cada vez más y su calidad de vida se mantiene durante muchos más años. Tercera edad saludable y longeva Diversos estudios previos ya han demostrado que, en las décadas de los años 80 y 90, en Estados Unidos, los problemas propios de la tercera edad se redujeron, y además a un ritmo constante. En lo que se refiere a la media global del planeta, la esperanza de vida se ha doblado en los últimos dos siglos, alcanzando los 65 años para los hombres y los 70 para las mujeres. Este aumento se ha dado con una regularidad anual, y resulta un fenómeno que jamás antes se había observado en la historia de la humanidad. Todas estas observaciones señalan que puede demostrarse claramente que, tanto el aumento de la temperatura global como el de la cantidad de CO2 atmosférico han influido en este cambio. Es cierto que también existen influencias negativas para nuestra salud en ambas circunstancias, pero los expertos señalan que éstas son minúsculas en comparación con el incremento espectacular de nuestra longevidad. Radicales libres controlados Estudios recientes han demostrado que enriquecer el aire con dióxido de carbono aumenta las concentraciones y la actividad en las plantas de ciertas sustancias beneficiosas para la salud humana. Estas sustancias, como el ácido ascórbico, la antiocianina o los flavonoides (pigmentos vegetales), reducen los daños que los radicales libres producen a nuestro organismo. Un radical libre es una molécula extremadamente inestable y con gran poder reactivo. Se forma en el cuerpo humano por el contacto con el oxígeno (por la respiración) y actúa alterando las membranas celulares y atacando el material genético de las células. También daña las proteínas y los lípidos, y con el paso del tiempo puede producir cáncer. Pero, sobre todo, los radicales libres son en parte responsables del envejecimiento porque disminuyen la funcionalidad de las células, que no se dividen tanto como cuando somos jóvenes, lo que reduce el número de mitocondrias (órganos celulares que suministran la energía necesaria para el funcionamiento de la célula), con el consecuente deterioro del cuerpo con el paso del tiempo. Las sustancias que el CO2 activa en las plantas originan también una oxidación de las lipoproteínas del organismo de baja densidad, acumulación de plaquetas y vasodilatación del endotelio de las arterias. El efecto del CO2 en las cosechas es hoy por hoy un hecho que afecta a todo el planeta, y a todo tipo de plantas.
Este fenómeno podría tener un impacto en la salud humano mayor de lo que hasta ahora se ha pensado y podría ser una de las razones del espectacular aumento de la esperanza de vida en los dos últimos siglos. Los expertos afirman que aún faltan por realizar numerosos estudios para determinar si realmente este gas es bueno para la salud humana. Por el momento, el consenso científico es abrumador respecto a las consecuencias negativas del aumento del CO2 y de otros gases contaminantes en la atmósfera debido a su contribución al cambio climático.
La incidencia de esta contaminación es particularmente notoria en lo que se refiere al incremento de enfermedades infecciosas tropicales, inundaciones y tormentas, extinción de especies de animales y plantas, sequías más intensas y prolongadas y destrucción de cultivos. Aparentemente, contribuye asimismo a prolongar la vida.
Una paradoja más de la naturaleza.

10 noviembre, 2005

Aristóteles, creador de nuestra actual sociedad.


Aristóteles, nació en Estagira, Macedonia, el año 384 a. de J.C. y murió en 322 a. de J.C. Fue discípulo de Platón y maestro de Alejandro Magno. Creó su "Liceo" que fue tan prestigioso como la "Academia".
Su filosofía se caracteriza por ser un movimiento filosófico y científico basado en la experimentación. Concepción revolucionaria. En un panorama filosófico denominado por la ciencia del mundo exterior y la cosmología, creó un concepto de la sociedad, de la realidad y del hombre totalmente diferente. Enfatizó la transformación de su sociedad política porque afianzó la libertad democrática en su obra "Las Constituciones de Atenas", contra Filipo de Macedonia, quien reaccionó ordenando su muerte, ya que vislumbró que la democracia terminaría por derrotar al totalitarismo.
En el campo de la metafísica - hasta entonces denominado por Platón - en el que tenía predominio las ideas y por lo tanto el mundo ideal y dialéctico de la lógica y el pensamiento sobre la realidad y la experiencia, él decidió crear bases totalmente diferentes para constituir en ellas la filosofía y la ciencia.
Su gran revolución ideológica la hace precisamente en el campo de la teoría del conocimiento. Contra todos los filósofos que presumían la validez del conocimiento, él dice que sin experimentación no hay verdad.
Aristóteles da realidad a las ideas entendiéndolas como la esencia de las cosas reales - "Nada hay en la mente que no haya estado antes en los sentidos".
Frente a toda metafísica, a la filosofía cosmológica y frente al idealismo metafísico e intelectualista de Platón, la posición de Aristóteles no puede ser más radicalmente distinta.
Por la fuerza de su ingenio trascendió su época y se proyecto en el siglo XVII y XVIII, época en que su tesis es sostenida por los empiristas británicos John Locke, George Berkeley y Davis Hume, y en cierto modo también Emmanuel Kant, filósofo alemán creador de la filosofía crítica.
Aristóteles inventa el empirismo, pues considera que todas las filosofías y las ciencias tienen que partir de las experiencias, es decir, de todas las sensaciones que nos ofrece el mundo de la percepción y del conocimiento sensible.
Redescubre la experiencia y la erige en base del conocimiento verdadero. La percepción que había sido desechada como conocimiento impreciso y engañoso es decir, el DOXA, para él es el punto de partida necesario y obligatorio, no sólo de toda la filosofía, sino de todas las ciencias.
El mismo inventó y construyó por primera vez en Occidente casi todas las ciencias naturales más importantes, tales como la física, la química, la geografía y también las ciencias sociales más significativas como la ética, la política y el estudio de la sociedad.
En su obra "Organon", desarrolla una lógica y una epistemología que le permiten perfeccionar y alcanzar el conocimiento científico a la vez demostrativo y convalidadamente verdadero.
Creó su lógica para garantizarse un acceso sólido del conocimiento a la realidad. Cambió el curso de la filosofía al pensar que las ideas y los pensamientos no eran como lo creyó Platón. Insertó las ideas en el mundo real, tanto las cosas materiales que se ofrecen al conocimiento sensible, como las ideas y conceptos. Desde entonces las ideas no flotan en vacío ideal sino que existen en las cosas mismas de la realidad. Al mismo tiempo que fue el creador del "empirismo epistemológico", fue también gestor del "realismo metafísico". Hay una realidad exterior que puede ser accesible al conocimiento empírico.
Aristóteles deja de depender de las ideas y desarrolla su concepción hilemorfista, que consiste en que las esencias o sustancias de las cosas reales tienen una realidad DUAL; ellas son : Materia y Forma y en sus relaciones de unas cosas, causa y/o efecto.
Sobre este concepto de casualidad de : "No hay efecto sin causa" y "todo efecto debe ser proporcionado a su causa", se construirá toda la ciencia antigua, moderna y contemporánea.
Sobre el principio de la relación entre materia y forma, se elaboraron la psicología, la sociología y la política, así como, por supuesto, una nueva antropología filosófica. Para la esencia del hombre, el cuerpo es la materia y la forma es el alma.
Aristóteles es el inventor, en Occidente, del concepto del alma como primer principio, primera fuerza o energía, que da origen a la vida, a la sensación y a la intelección. La estructura integrada del plano biológico y reflexivo intelectual del hombre de una manera unitaria y teleológica. En virtud de lo cual, todas las partes que constituyen el organismo humano están al servicio supremo, del que éste emplee su finalidad de supervivencia, integridad, perfeccionamiento y desarrollo individual.
En lo primero que define a Dios como la "suprema causa" y el "motor fundamental del Universo". Entre sus obras principales, además de la metafísica, como teoría de las causas primeras, está su : "De Anima" o "Del Alma", que es el primer tratado científico de la filosofía y de la psicología. También inventó la lógica o arte y ciencia del pensamiento correcto que distingue los falsos modos de razonar como los Sofismas y los Paralogismos y la falacia comprendida en sus libros.
Fue Aristóteles quien introdujo la denominación de Etica para designar lo concerniente a los principios del bien y del mal; y, de "Filosofía Práctica", para la disciplina que dicta las reglas a que debe someterse la conducta humana . Según Aristóteles, la virtud es el objeto de la Etica, mientras que la moralidad lo es de la Filosofía Práctica. Hay, no obstante, confusiones posteriores debidas a las traducción; así por ejemplo, CICERON tradujo la palabra griega "ético" a la latina "moralis", y SENECA llamó a la ética "Philisophia Moralis". Desde entonces aparecen con más frecuencia estos tres nombres : Etica, Filosofía Moral y Filosofía Práctica ç, designando, con leves matices de diferencia, la misma disciplina filosófica. Sin embargo, desde la Antigüedad hasta el presente, la expresión Filosofía Práctica no se refiere exclusivamente a lo ético, sino que abarca también la Política, la Economía y el Derecho.
Aristóteles en su obra "Etica de Nicomaco" hizo la primera exposición sistemática de esta disciplina. Considera como cuestión fundamental la del "supremo bien, o sea un bien que se desea por sí mismo y por el cual, a la vez, se desea todos los demás bienes; todos coinciden en que este supremo bien es la felicidad". Pero ¿en que consiste? . Según Aristóteles, la virtud es un modo de pensar y de sentir que se mantiene en el justo medio entre el exceso y el defecto; este justo medio puede ser conocido por la razón, y quien lo conoce, como el sabio, obra en consecuencia y es feliz; pues, la felicidad no es sino la actividad de la vida conforme a la razón.
Después de Aristóteles, los Estoicos y los Epicúreos siguen la misma ideas con muy leves innovaciones. Así, los ESTOICOS consideran que la felicidad consiste en la "apatía", o sea el estado de una vida serena, libre de las pasiones que subyugan a los insensatos, y que realizan la acción virtuosa conforme al deber, que es lo mismo que conforme a la razón. Por su parte los EPICUREOS (Seguidores de Epicuro) sostienen que el supremo bien es la felicidad, pero entendida como placer, es decir como diversión, entretenimiento y satisfacción sin impedimentos. Para lograr la felicidad se necesita mantener la buena salud del cuerpo y una "inquebrantable tranquilidad del alma no estorbada por pasiones ni apetitos"; a esto le llamaron "ataraxia", estado parecido al de la apatía, de los estoicos. También reconocen a la razón como el medio de conseguir la felicidad, y por eso, también el sabio representa el ideal de la conducción moral de la vida.
El CRISTIANISMO introdujo una nueva concepción ética basada en los siguientes principios: 1º.- El hombre tiene la culpa de sus desgracias y sufrimientos; 2.- Todos los hombres son iguales por ser hijos de Dios, quien los creó en un acto de puro amor y, por eso, "amar a Dios y al prójimo como así mismo" es el sentimiento y el deber fundamental; 3º.- La salvación, o dicha eterna, y la perdición, dependen de la libre voluntad del hombre, pues él puede elegir el difícil y angosto sendero de la virtud, la misericordia, la beatitud y la purificación; o el amplio camino del vicio, el placer, el egoísmo, etc. etc., que finalmente conduce a la perdición; y 4º.- Existe un especie de casualidad ética, pues "quien siembre vientos cosecha tempestades".
La novedad de la concepción cristiana consiste principalmente en la importancia básica del sentimiento del amor, del que carecieron la concepciones griegas de la antigüedad, que fueron eminentemente racionalistas, que lucieron el brillo de la razón, pero también su frialdad.

09 noviembre, 2005

La primera foto de mi Hijo Ricardo


Bueno, aquí tenemos la foto de mi gordito. Un post para la posteridad.

Seguro que cuando vea esto de mayor dirá que su padre esta como una cabra.

Un problema para el Futuro de Google.

La verdad es que Google es magnífico lo mires por donde lo mires.
Sus dos creadores han sabido identificar una necesidad que teniamos todos y nos la han dado resuelta; esta es la piedra angular de cualquier negocio.
Les va bien, muy bien diria yo; pero deben de seguir atentos.
En principio parece que lo estan haciendo ya que van incorporando nuevas aplicaciones dentro de Google, que todos utilizamos....pero creo que descuidan su principal pata que es el buscador Google.
Cuando buscas una pagina te devuelve los resultados de aquellas en los que más enlaces existen hacia ella misma; magnífico ya que se supone que cuanto más enlaces haya a esa pagina, más interés hay reflejada sobre ella. Pero la Web crece diariamente y los contenidos quedan obsoletos, y habitualmente hay muchas paginas que caen en el olvido de sus creadores y apenas se actualizan y consecuentemente ni su información ni sus enlaces.
¿ Qué quiero decir con todo esto ? ...pues que lo que busco en Google habitualmente es antiguo. Si yo busco por ejemplo: "ordenadores potentes"...me salen tambien como resultados paginas que hablan sobre pentium III que en el momento de hacerse esa pagina eran efectivamente los más potentes y claro está como es antiguo ...pues existen muchas paginas que enlazaron sobre esa. Ahora esa información no me interesa.
Una vez le pregunté a mi padre cuando era yo muy pequeño sobre el por qué las personas mayores solian tener mucho o al menos bastante más dinero. Mi padre me respondio: Porque han tenido más tiempo para ganarlo.
Esto que es de perogrullo, ilustra lo que quiero decir. Una pagina que lleve mas tiempo en la web, tiene más posibilidades de que se la enlace que otra que lleva menos, salvo contadas excepciones. Si esa pagina en cuestión no es actualizada por su creador con asiduidad nos encontramos que dará información desfasada cuando pase el tiempo.
Hay informaciones en la web que necesitan actualizarse menos que otras, pero en cualquier caso toda información debe de ser actualizada. Es evidente que esto es un problema del creador de la pagina, pero perjudica al usuario que pretende encontrar información adecuada, y perjudica a su vez a aquel propietario de una pagina web que tiene su pagina actualizada ya que no destaca sobre el maremagnun de resultados, y a mi entender esta deberia ser de las primeras.
Por consiguiente, lo que quiero decir que Google deberia de alguna forma redirigir el tráfico de las paginas webs teniendo en cuenta sus actualizaciones; algo así como añadir un ratio de actualización a su motor de búsqueda. Sino lo hacen nos encontraremos que con el tiempo tendremos muchos enlaces de paginas ya obsoletas que en la mayoria de los casos no nos interesan.
Yo por ejemplo cuando busco temas tecnológicos, que son los más sensibles al tiempo, no lo busco en Google, lo busco en Technorati http://technorati.com/, que si parece tener esto en cuenta.
La potencia de Google junto a la de Technorati, seria perfecta y una garantia para el futuro de Google.
Algo parecido y que nos sirve para ilustrar denuevo el problema podemos observarlo en Google earth, vemos la plaza de tu calle tal y como era cuando se hizo la foto.
Con esto no quiero decir que yo pretenda que me la actualicen en tiempo real, pero si que me las actualicen al menos una vez al mes.
Si Google earth no se actualiza de esta forma, en los próximos años dejaremos de usarlo, porque ya no nos llamará la atención.
Imaginaos dentro de 10 años seguir viendo la plaza que ya no está delante de tu casa.
¡ No tiene sentido ¡, la actualización es imprescindible.