26 ene. 2008

Visiblebody.com, la web2.0 también enseña anatomía y fisiología

Seguro que a todos nos hubiese venido muy bien tener una herramienta interactiva para estudiar anatomía, en asignaturas como ciencias naturales.

Con el tiempo han ido saliendo algunas herramientas en cd, que se pueden conseguir comprándolas o de regalo con algunas publicaciones científicas pero, porqué no gratis, porqué no universal, porqué no para todo el mundo, porqué no web 2.0.

Para cubrir esta necesidad Argosy ha creado visiblebody.com, una página donde podremos aprender todo lo necesario sobre anatomía humana, viendo los distintos sistemas que componen el cuerpo humano en un modelo 3D. La página aún se encuentra en desarrollo y quedan muchas funcionalidades por pulir e integrar, además se nos promete que empezarán a colgar videos explicativos sobre anatomía y fisiología.
Solo pide inscribirse (gratis) y bajar una herramienta web para disfrutar de la enseñaza

La Burguesia ...

Al venir de vuelta del Jumbo estar tarde me puse a pensar en este viejo y usado termino social ...
Esta clase social, cuyo origen se remonta a la Europa feudal, se convirtió en germen de un nuevo mundo con el desarrollo del capitalismo. Dicha transformación culminó entre los siglos XVII Y XIX, por medio de las revoluciones burguesas

Su Formación
Originalmente, el término burguesía calificaba tan sólo a los habitantes de las ciudades (burgos) de la plena Edad Media, derivando más tarde hasta englobar a una clase social caracterizada por su actividad económica no agrícola. Para los marxistas, esta clase social era la dominante en el modo de producción capitalista, poseedora de los medios de producción, gracias a lo cual podía acumular las plusvalías generadas por el trabajo asalariado de los proletarios. La teoría sociológica, desde M. Weber y W. Sombart, contempla a la burguesía como la clase social que, animada de un espíritu nuevo, donde priman el individualismo, el esfuerzo personal, la innovación y el afán de lucro, transforma el mundo feudal en el que nace, hasta lograr la plena implantación del capitalismo y el estado liberal.
De todas formas, esta clase social no constituye un grupo homogéneo, sino se dan grandes diferencias entre una alta burguesía, compuesta por los capitalismo dueños de los medios de producción, que rigen la vida política y económica er estados liberales, y una pequeña burguesía de profesionales liberales, funciona empleados medios y pequeños propietarios y comerciantes que, aunque como muchos rasgos ideológicos y culturales con la anterior, se encuentra mas cerca proletariado por su renta y su posición social y política. El hecho es que el cono de burguesía es muy amplio, y ha tenido distintos significados y matices a lo largo de la historia, y según las perspectivas desde las que se ha analizado.
Nacimiento y consolidación de la burguesía
Aunque ya en la Antigüedad existieron hombres de negocios dedicados a las, actividades mercantiles y manufactureras y vinculados al mundo urbano, el importante papel de los aparatos públicos en las actividades económicas no solía mucho margen para la iniciativa privada, por lo que no podemos hablar de burguesía propiamente dicha. En Europa occidental, el crecimiento económico y demográfico experimentado a partir del siglo XI permite el asentamiento de una población cada vez más numerosa en las ciudades, tanto antiguas como de reciente fundación (burgos). Estos burgueses se especializan en actividades artesanas y, cantiles, que pronto les proporcionan una fuerza económica suficiente para presionar sobre los señores feudales, de los que obtuvieron libertades jurídicas, autonomía administrativa y protección para sus actividades. Sin embargo, no consiguieron distinguirse jurídicamente de la mayoría campesina de la población, y el esquema social feudal, basado en la división en tres órdenes o estamentos (nobles, eclesiásticos y trabajadores o estado llano) se mantuvo inalterado. Esto no impidió que dentro del mismo grupo burgués se produjera una creciente estratificación, sobre todo Partir del siglo XIII, diferenciándose las oligarquías de grandes comerciantes y banqueros que normalmente controlaban los gobiernos municipales, del «común», integrado por artesanos, sirvientes y pequeños comerciantes. La oposición de intereses entre ambos grupos dio lugar a la aparición de conflictos durante la baja Edad Media (rebelión de los ciompí en Florencia, Busca contra Biga en Barcelona, etc.). Además, esa oligarquía burguesa se asimila progresivamente a la nobleza terrateniente, cuyo estilo de vida copia y cuyo estatus social codicia. Desde fines de la Edad Media y durante toda la Edad Moderna, muchas familias burguesas entroncan con la nobleza (mediante matrimonios con familias aristocráticas empobrecidas), o acceden a esa condición mediante la compra de cargos o tierras vinculadas a títulos, convirtiéndose en rentistas y asumiendo los valores conservadores de la clase noble. otra forma de ascender socialmente era mediante el servicio en la creciente burocracia estatal que las monarquías autoritarias de la Edad Moderna estaban desarrollando Los monarcas preferían emplear en su administración a letrados procedentes de la clase media burguesa, en lugar de a los miembros de la alta nobleza, susceptibles de desafiar su poder.
De todas formas, los burgueses no ennoblecidos siguieron perteneciendo estado llano, y normalmente eran ellos los que acaparaban su representación Cortes y otras instituciones representativas de origen medieval, a las que los rey Antiguo Régimen recurrían lo menos posible, sólo cuando estaban necesitados financiación extraordinaria.
La expansión mercantil europea desarrollada a partir del siglo XVI, con el descubrimiento y colonización de nuevos y vastos territorios ultramarinos y la apertura nuevos mercados, proporcionó unas inmensas posibilidades de enriquecimiento burguesía. Pero el mantenimiento de las estructuras tradicionales le impedía un papel social y político acorde con su poder económico. A partir del siglo XVI sé dujo también un cambio de mentalidad, con la difusión de nuevas ideas: el humanismo, el racionalismo e incluso la ética protestante (especialmente en su versión calvinista), transformaciones ideológicas, filosóficas y culturales que encuentra culminación en la Ilustración, que tuvo en la burguesía a su principal valedora beneficiaria. Se santificó el afán de lucro y el éxito en los negocios, como signo del divino y como contribución a la prosperidad general. El individualismo y la igualdad entre los hombres se elevaron a la categoría de dogmas, contradiciendo el si de privilegios estamentales que impedía a la burguesía desempeñar un pape destacado en la vida pública. Por último, el apoyo al progreso científico y técnicas a la mentalidad racionalista, también en la economía, se oponían a las viejas estructuras productivas (gremios) y comerciales (mercantilismo), que constituían una para el pleno desarrollo del capitalismo, el nuevo sistema socioeconómico que ido gestando con las actividades de la burguesía.
Las revoluciones burguesas
Todas esas estructuras económicas y sociales anticuadas encontraban su mar expresión en el sistema político de las monarquías absolutistas. La burguesía utilizaba, en su beneficio el descontento de gran parte del estado llano, el estamento no privilegiado, que incluía desde los más pobres jornaleros hasta los banqueros o comerciantes más ricos. La serie de revoluciones iniciada en Inglaterra (1642-48 y 1688) Norteamérica (1773-83) y Francia (1789), y extendida durante el siglo XIX al re Europa, significó la abolición del Antiguo Régimen y la instauración del estado General burgués, la sociedad de clases y el capitalismo industrial.
Esta transformación social, económica y política sirvió especialmente a los intereses de la gran burguesía capitalista, convertida en clase dominante. En efecto, la revolución Industrial iniciada en la segunda mitad del siglo XVIII en Inglaterra había lugar al desarrollo de un nuevo sector económico. Los capitales acumulados por ~ comercio fueron invertidos en las nuevas fábricas, donde se empleaba a la mano de] que una transformación agraria orientada al mercado había dejado sin tierras y si bajo. La nueva economía industrial, cuyos medios de producción están en manos de la burguesía capitalista, se transforma en el motor del desarrollo de los estados occidentales. El poder económico se convierte en la pauta que marca las divisiones y jerarquías de la nueva sociedad de clases. Se produce entonces la clara separación la burguesía y las clases trabajadoras, que no tienen acceso a los bienes de producción ni al reparto de la riqueza generada por su trabajo. La recompensa que obtiene el proletariado por haber apoyado las revoluciones burguesas es el pago de un salario por su trabajo, privado de voz en los mecanismos económicos y políticos.
El fin de la burguesía revolucionaria
A partir de ese momento, la antigua burguesía revolucionaria se convierte en una clase conservadora. Se priman los valores del orden (además de los de la familia, el trabajo y el ahorro), se defiende a ultranza la propiedad privada, y se intenta restringí acceso de las clases populares al poder político (sufragio censatario). De vez en cuando, la presión popular en los movimientos revolucionarios (Babeuf en 1797, las revoluciones de 1848, la Comuna de París de 1871), y corrientes como el socialismo intentan despertar la conciencia de clase del proletariado y organizarlo para luchar por mejorar su posición. Ante esto, la burguesía responde con concesiones que intentan integrar a las clases populares en el sistema, instaurando el sufragio universal, extendiendo su ideología mediante la educación nacional, y creando el mito según el cual, en una sociedad de clases «abierta», cualquier individuo es capaz, por mérito esfuerzo, de mejorar su condición. En el siglo XX, la evolución económica y social de los países más desarrollados ha dominado la aparición de una amplia clase media o pequeña burguesía, que no está definida tanto por la propiedad de los medios de producción como por su formación cultural y técnica, que le permite desempeñar los puestos intermedios de la administración pública y empresarial. Por otro lado, se ha producido también una elevación del nivel de vida y formación de las clases trabajadoras, cuyos miembros más cualificados se confunden con los estratos inferiores de la clase media («aburguesamiento» de la clase obrera). Al mismo tiempo, la difusión de unos hábitos culturales y de consumo homogéneos por parte de los medios de comunicación ha propiciado aparición de una «sociedad de masas» o de consumidores, que pretende desdibujar las fronteras entre clases.

Datos Curiosos del planeta Tierra

Una buena cantidad de datos de nuestro planeta madre..

La Tierra en Cifras
Diámetro de la Tierra en el ecuador: 12.756 km
Circunferencia de la Tierra en el ecuador: 40.076 km
Diámetro de la Tierra de uno a otro polo: 12.713,82 km
Circunferencia de la Tierra en los polos (meridianos): 40.009,152 km
Longitud de un grado de latitud en el ecuador: 110,576 km (Como la Tierra no es una esfera perfecta, el achatamiento de los polos hace que la longi­tud de un grado de latitud en los polos sea ligeramente mayor).
Longitud de un grado de longitud en el ecuador: 111,307 km (La extensión de un grado de longitud es mayor en el ecuador y disminuye. gradualmentehacia los polos).
Superficie de fa Tierra: 510.101.000 km2
Volumen de la Tierra: 1.083.320.000.000 km3
Peso de la Tierra: 5.977 trillones de toneladas ó 5.977.000.000.000.000.000.000 t.
Velocidad de rotación de la Tierra sobre su eje. En el ecuador: 1.620 km/hora
Velocidad de revolución de la Tierra alrededor del Sol: 107 118 km/hora
Velocidad a la que el Sol arrastra a fa Tierra alrededor del centro de la Vía Láctea: 273,58 km/segundo
Velocidad a la que la Vía Láctea se traslada en el espacio: más de 270 km/s.

Datos Curiosos
Las personas que se encuentran al norte del Trópico de Cáncer o al sur del Trópico de Capri-. cornio nunca pueden ver al Sol exactamente por encima de sus cabezas.
Que el Sol se levanta por el este es una verdad no muy exacta. En realidad, salvo en el ecuador, el Sol sólo se levanta exactamente en el este en los equinoccios de otoño y primavera, alrededor del 21 de marzo y del 23 de setiembre. Y sólo entonces se pone exactamente por el oeste.
En los polos, donde hay aproximadamente seis meses de luz constante y seis meses de oscuridad, el Sol nunca se eleva a más de 23,50 grados sobre el horizonte.
En los equinoccios, la sombra que provoca al mediodía una persona en las latitudes 450 N. o 45 S.. tiene exactamente la medida de su estatura.
Si quieres vivir a igual distancia del ecuador y del polo sur, tu casa sólo podrá estar situada en la República Argentina, en Chile o en Nueva Zelandia.
La ciudad más austral del mundo es Ushuaia, capital del territorio de Tierra del Fuego, en la Argentina.
La ciudad más septentrional del mundo se encuentra en Groenlandia. Su nombre es Etah.
Si pudiéramos cavar un pozo desde Shangai, China, directamente a través del centro de la Tierra, apareceríamos cerca de Buenos Aires, la capital argentina. Estos puntos de la Tierra, diametralmente opuestos, son denominados antípodas. Entre ellos existe una diferencia horaria de 12 horas.
Si navegáramos en línea recta hacia el sur desde la Isla de Vancouver, en Canadá, no’ hallaríamos tierra hasta llegar a la Antártida.
Si navegáramos directamente hacia el norte desde Belem (Pará), en Brasil, no hallaríamos tierra hasta llegar a Groenlandia.
Partiendo de Los Angeles, en California (EE. UU.), se podría navegar en línea recta hacia el sur sin encontrar tierra hasta llegar a la Antártida. Yendo por el contrario, desde Los Angeles hacia el norte, se podría llegar por tierra hasta las cercanías del polo.
Es posible navegar constantemente alrededor del mundo siguiendo el paralelo 600 5. La distancia recorrida sería aproximadamente igual a la mitad de la circunferencia de la Tierra en el ecuador y casi similar también a la distancia de uno a otro polo a lo largo de un meridiano.
El meridiano 17000, llega desde el Polo Norte hasta el Polo Sur sin pasar por tierra, salvo algunos pequeños islotes del océano Pacífico.
La Unión Soviética, el país más extenso del mundo, tiene una superficie mayor que la de toda América del Sur.
Por su superficie, Asia podría contener a todo el continente americano y aun contaría con espacio libre.
Tokio, la ciudad más poblada del mundo, tiene más habitantes que toda Australia.
La superficie de la República Argentina permitiría contener en su territorio los doce países europeos siguientes: España, Portugal, Francia, Italia, Bélgica, Holanda, Gran Bretaña, Suecia, Noruega, Dinamarca, Austria y Hungría. Aún sobraría lugar.
Las siete novenas partes de la población mundial viven al norte del paralelo correspondiente a los 200 de latitud Norte.
Europa es el continente más densamente poblado. Dejando de lado el Principado de Mónaco, que tiene 22 000 habitantes en una superficie de 1,5 km2, el país europeo con mayor densidad de población es Holanda, que tiene más de 375 habitantes por kilómetro cuadrado.
El continente con menor densidad de población es Oceanía, que cuenta con menos de 2 habitantes por kilómetro cuadrado.
Entre 1900 y 1950, la población mundial ascendió de 1600 a 2 500 millones de habitantes, es decir, más de un 50%. Hoy somos mas de 6000 millones de personas compartiendo los recursos del planeta.

Datos Notables
Peso estimado (masa): 5.940.000.000.000.000.000.000 Toneladas métricas
Edad estimada: 4.600.000.000 de años
Población actual: 6.398.000.000 personas
Área superficial: 510.066.000 km2
Área terrestre: 148.647.000 km2 (29.1%)
Área oceánica: 335.258.000 km2
Total área acuática: 361.419.000 km2 (70.9%)
Tipo de agua: 97% salada, 3% dulce
Circunferencia en el ecuador: 40.066 km
Circunferencia en los polos: 39.992 km
Diámetro en el ecuador: 12.753 km
Diámetro en los polos: 12.710 km
Radio en el ecuador: 6.376 km
Radio en los polos: 6.355 km
Velocidad orbital: La Tierra orbita al sol a 107.320 km por hora
Órbita del Sol: La Tierra orbita al sol una vez cada 365 días, 5 horas, 48 minutos y 46 segundos.

Cuales son los países más grandes de la Tierra (en extensión)
1 – Rusia: 17.075.400 km2
2 – Canadá: 9.330.970 km2
3 – China: 9.326.410 Km2
4 - Estados Unidos: 9.166.600 km2
5 – Brasil: 8.456.510 km2
6 – Austrália: 7.617.930 km2
7 – Índia: 2.973.190 km2
8 – Argentina: 2.736.690 km2
9 – Kazajstán: 2.717.300 km2
10 – Sudán: 2.376.000 km2
11 - Argelia: 2.381.740 Km2
12 - Rep. Democrática del Congo: 2.345.410 Km2
13 - México: 1.972.550 Km2
14 - Arabia Saudí: 1.960.582 Km2
15 - Indonesia: 1.919.440 Km2

Cuales son los países más pequeños de la Tierra (en extensión)
1 – Vaticano: 0.44 km2
2 – Mónaco: 1.95 Km2
3 – Nauru: 21.2 Km2
4 – Tuvalu: 26 Km2
5 - San Marino: 61 Km2
6 – Liechtenstein: 160 Km2
7 – Islas Marshall: 181 Km2
8 – Seychelles: 270 Km2
9 – Maldivas: 300 Km2
10 - San Cristóbal y Nieves: 360 Km2

Cuales son las ciudades más pobladas del planeta
1 -Shangai, China: 13,3 millones
2- Bombay, India: 12,6 millones
3- Buenos Aires, Argentina: 11,92 millones
4 -Moscú, Rusia: 11,3 millones
5- Karachi, Pakistán: 10,9 millones
6- Delhi, India: 10,4 millones
7 - Manila, Filipinas: 10,3 millones
8 - Sao Paulo, Brasil: 10,26 millones
9 - Seúl, Corea del Sur: 10,2 millones
10 - Estambul, Turquía: 9,6 millones
11 - Yakarta, Indonesia: 9,0 millones
12 – Ciudad de México, México: 8,7 millones
13 - Lagos, Nigeria: 8,68 millones
14 - Lima, Perú: 8,38 millones
15 - Tokio, Japón: 8,3 millones
16 - Nueva York, EE.UU.: 8,09 millones
17 – El Cairo, Egipto: 7,6 millones
18 - Londres, Reino Unido: 7,59 millones
19 - Teherán, Irán: 7,3 millones
20 – Beijing (Pekín), China: 7,2 millones

Las cifras mostradas indican la población dentro de los límites reconocidos de la ciudad, y no incluyen a las personas que viven en las cercanías inmediatas fuera de los lindes establecidos para esta. Para ver la lista de las áreas metropolitanas más grandes refiérase al siguiente apartado.


Cuales son las áreas metropolitanas más pobladas del mundo
1 - Tokio, Japón: 31,2 millones
2 - Nueva York–área de Philadelphia, EE.UU.: 30,1 millones
3 - Ciudad de México, México: 21,5 millones
4 - Seul, Corea del Sur: 20,15 millones
5 - Sao Paulo, Brasil: 19,9 millones
6 - Yakarta, Indonesia: 18,2 millones
7 - Osaka-Kobe-Kyoto, Japón: 17,6 millones
8 - Nueva Delhi, India: 17,36 millones
9 - Mumbai, India: (Bombay) 17,34 millones
10 - Los Ángeles, EE.UU.: 16,7 millones
11 - El Cairo, Egipto: 15,86 millones
12 - Calcuta, India: 14,3 millones
13 - Manila, Filipinas: 14,1 millones
14 - Shangai, China: 13,9 millones
15 - Buenos Aires, Argentina: 13,2 millones
16 - Moscú, Rusia: 12,2 millones

Las cifras mostradas indican la población dentro del área inmediata que rodea a los límites establecidos de la ciudad, y también incluye a la población que habita dentro de los límites de esta. Para ver la lista de las ciudades más pobladas refiérase al apartado anterior.

Cuales son los países más poblados del mundo
1 – China: 1.298.847.624
2 – India: 1.065.070.607
3 – Estados Unidos: 293.027.571
4 - Indonesia: 238.452.952
5 - Brasil: 184.101.109
6 - Pakistán: 159.196.336
7 - Rusia: 143.782.338
8 - Bangladesh: 141.340.476
9 - Nigeria: 137.253.500
10 - Japón: 127.333.002
11 - México: 106.202.903
12 - Filipinas: 87.857.473
13 - Vietnam: 83.535.576
14 - Alemania: 82.468.000
15 - Egipto: 77.505.756

Cuales son los países menos habitados del mundo
1 – Vaticano: 770
2 - Tuvalu: 9.750
3 - Nauru: 10.000
4 - Palau: 16.000
5 - San Marino: 25.000
6 - Liechtenstein: 29.000
7 - Mónaco: 30.000
8 - San Cristóbal y Nieves: 41.000
9 - Islas Marshall: 52.000
10 - Andorra: 64.000

Cuales son los 10 idiomas más hablados del mundo
1 -Chino Mandarín: más de 1.000 millones
2 - Inglés: 512 millones
3 - Hindi: 498 millones
4 - Español: 391 millones
5 - Ruso: 280 millones
6 - Árabe: 245 millones
7 - Bengalí: 211 millones
8 - Portugués: 192 millones
9 - Malayo-Indonesio: 160 millones
10 - Japonés: 125 millones

Cuales son los océanos más extensos del mundo (por tamaño)
1 - Pacífico: 155.557.000 km2
2 - Atlántico: 76.762.000 km2
3 - Índico: 68.556.000 km2
4 - Antártico: 20.327.000 km2
5 - Ártico: 14.056.000 km2

Cuales son las mayores islas del mundo (por tamaño)
1 - Australia: 7.617.930 km2 *
2 - Groenlandia: 2.175.600 km2
3 - Nueva Guinea: 792.500 km2
4 - Borneo (Indonesia): 725.500 km2
5 - Madagascar: 587.000 km2
6 - Baffin (Ártico canadiense): 507.500 km2
7 - Sumatra (Indonesia): 427.300 km2
8 - Honshu (Japón): 227.400 km2
9 - Gran Bretaña: 218.100 km2
10 - Victoria (Ártico canadiense): 217.300 km2

*Generalmente considerada masa de tierra continental y no oficialmente una isla. Aunque sin duda es la isla más grande del planeta, y en combinación con Oceanía, el continente más pequeño de la Tierra.

Ccuales son los mayores mares del mundo
1 - Mar de la China Meridional: 2.974.600 km2
2 – Mar Caribe: 2.515.900 km2
3 – Mar Mediterráneo: 2.510.000 km2
4 – Mar de Bering: 2,261,100 km2
5 - Golfo de México: 1.507.600 km2
6 – Mar Arábigo: 1.498.320 km2
7 – Mar de Okhotsk: 1,392,100 km2
8 – Mar del Japón: 1.012.900 km2
9 – Bahía del Hudson: 730.100 km2
10 – Mar de China Oriental: 664.600 km2
11 – Mar de Andaman: 564.900 km2
12 – Mar Negro: 507.900 km2
13 – Mar Rojo: 453.000 km2

Cuales son los ríos más largos del mundo
1 - Nilo, África: 6.825 km
2 - Amazonas, Sudamérica: 6.437 km
3 - Chang Jiang (Yangzi), Asia: 6.380 km
4 - Mississippi, Norteamérica: 5.971 km
5 - Yeniséi, Asia: 5.536 km
6 - Huáng Hé (Amarillo), Asia: 5.464 km
7 - Obi, Asia: 5.410 km
8 - Amur, Asia: 4.416 km
9 - Lena, Asia: 4.400 km
10 - Congo, África: 4.370 km
11 - Mackenzie, Norteamérica: 4.241 km
12 - Mekong, Asia: 4,184 km
13 - Níger, África: 4.171 km

Cuales son los mayores lagos del planeta
1 – Mar Caspio, Asia-Europa: 371.000 km2
2 – Superior, Norteamérica: 82.100 km2
3 – Victoria, África: 69.500 km2
4 - Hurón, Norteamérica: 59.600 km2
5 – Michigan, Norteamérica: 57.800 km2
6 - Tanganica, África: 32.900 km2
6 - Baikal, Asia: 31.500 km2
7 – Gran lago del Oso, Norteamérica: 31.300 km2
8 – Mar de Aral, Asia: 30.700 km2
9 – Nyassa (o Malawi), África: 28.900 km2
10 – Gran lago del Esclavo, Cánada: 28.568 km2
11 - Erie, Norteamérica: 25.667 km2
12 - Winnipeg, Canadá: 24.387 km2
13 - Ontario, Norteamérica: 19.529 km2
14 - Balkhash, Kazajstán: 18.300 km2

Cuales son las 10 montañas más altas del mundo?
1 - Everest: 8.850 m (Nepal)
2 - Qogir (K2): 8.611 m (Pakistán)
3 - Kangchenjunga: 8.586 m (Nepal)
4 - Lhotse: 8.501 m (Nepal)
5 - Makalu I: 8.462 m (Nepal)
6 - Cho Oyu: 8.201 m (Nepal)
7 - Dhaulagiri: 8.167 m (Nepal)
8 - Manaslu I: 8.156 m (Nepal)
9 - Nanga Parbat: 8.125 m (Pakistán)
10 - Annapurna I: 8.091 m (Nepal)

El Problema mas dificil del mundo ...

FERMAT Pierre de (1601-1665)
Matemático francés nacido el 17 de agosto de 1601 en Beaumont de Lomagne. Su padre, que era comerciante de cuero, lo envío a estudiar derecho a Toulouse , donde el 14 de mayo de 1631 se instala como abogado. Ese mismo año se casa con Louise de Long, prima de su madre, que le dió tres hijos, uno de ellos, Clément Samuel, que llegó a ser el albacea científico de su padre, y dos hermanas que fueron monjas.
En 1632 conoce a Carcavi siendo ambos consejeros del Parlamento en Toulouse y se hicieron amigos.
Fermat envió muchos de sus trabajos a Carcavi después que éste se mudó a París como bibliotecario real en 1636. En 1650 Fermat envió a Carcavi un tratado titulado: Novus secundarum et ulterioris radicum in analyticis usus. Este trabajo contiene el primer método conocido de eliminación y Fermat quería publicarlo. Se les pidió a Pascal y a Carcavi que buscaran un editor para el trabajo. Carcavi se acercó a Huygens, tratando de publicar no sólo este trabajo sino también otros trabajos que Fermat le había enviado. Ni Carcavi ni Pascal tuvieron éxito y los trabajos de Fermat nunca se publicaron. La amistad de Carcavi con Fermat duró por muchos años.
En 1648 asciende a la Conserjería Real en el Parlamento local de Toulouse, cargo que desempeñó con dignidad y gran talento durante 17 años; durante 34 años dedicó su vida al servicio del Estado. Finalmente, murió en Castres, Francia, el 12 de enero de 1665, a los 65 años.
En su obra Introducción a la teoría de los lugares planos y espaciales, contemporánea a la Geometría de Descartes, Fermat abordó la tarea de reconstruir los Lugares Planos de Apolonio, describiendo alrededor de 1636, el principio fundamental de la Geometría analítica: siempre que en una ecuación final aparezcan dos incógnitas, tenemos un lugar geométrico, al describir el extremo de uno de ellos una línea, recta o curva.
Aquellos lugares geométricos representados por rectas o circunferencias se denominaban planos y los representados por cónicas, espaciales.
Utilizando la notación de Viéte, representó en primer lugar la ecuación Dx=B, esto es, una recta. Posteriormente identificó las expresiones xy=k2 a2-s-x2=ky; x2 y2+2ax+2by=c2 a2-x2=ky2 con la hipérbola, parábola circunferencia y elipse respectivamente. Para el caso de ecuaciones cuadráticas más generales, en las que aparecen varios términos de segundo grado, aplicó rotaciones de los ejes con objeto de reducirlas a los términos anteriores. La extensión de la Geometría analítica al estudio de los lugares geométricos espaciales, la realizó por la vía del estudio de la intersección de las superficies espaciales por planos. Sin embargo, las coordenadas espaciales también en él están ausentes y la Geometría analítica del espacio quedó sin culminar. Lo que sí está totalmente demostrado, es que la introducción del método de coordenadas deba atribuirse a Fermat y no a Descartes, sin embargo su obra no ejerció tanta influencia como la Geometría de Descartes, debido a la tardanza de su edición y al engorroso lenguaje algebraico utilizado.
Sí Descartes tuvo un rival, en lo que a capacidad matemática se refiere en su época, éste fue Fermat, quien por cierto, tampoco era un matemático profesional. Pero considerando lo que hizo por la Matemática se piensa que hubiera hecho sí se hubiera dedicado de pleno a ellas. Fermat tuvo la costumbre de no publicar nada, sino anotar o hacer cálculos en los márgenes de los libros o escribir casualmente sus descubrimientos en cartas a amigos. El resultado de ello fue el perderse el honor de acreditarse el descubrimiento de la Geometría Analítica, que hizo al mismo tiempo que Descartes. Descartes sólo consideró dos dimensiones, mientras que Fermat estudió las tres dimensiones. Igualmente pudo adjudicarse el descubrimiento de algunas características que más tarde inspirarían a Newton.
Según D’Alembert, entre otros, el origen del Cálculo infinitesimal hay que remontarlo a las dos memorias, Memorias sobre (a teoría de (os Máximos y Memoria sobre las Tangentes y las Cuadraturas de Fermat. Leibniz reconoce en una carta a Wallis, cuánto le debe a Fermat. Fermat, junto a Pascal, desarrolló el Cálculo de probabilidades.
Pero se destacó fundamentalmente en La teoría de números. Pascal Le escribe en una carta: Buscad en otras partes quien os siga en vuestras invenciones numéricas; en cuanto a mí os confieso que estoy muy lejos de ello”.
Dejó muchas proposiciones sin demostrar, pero nunca se demostró que Fermat se equivocara. Los matemáticos han logrado demostrar casi todas las proposiciones que dejó sin demostrar. Solo quedaba pendiente el teorema conocido como el Último teorema de Fermat, que establece que para n>2 no es posible
La siguiente ecuación:
an + bn = cn
Ejemplos fáciles para n=2
62 + 82 = 102
32 + 42 = 52
Para n>2 de no hay números naturales que cumplan la propiedad anterior

El enunciado de este teorema quedó anotado en un margen de su ejemplar de la Aritmética de Diofanto de Alejandría traducida al Latín por Bachet publicado en 1621. La nota de Fermat fue descubierta póstumamente por su hijo Clemente Samuel, quien en 1670 publica este Libro con las numerosas notas marginales de Fermat.
Concretamente Fermat escribió en el margen de la edición de La Aritmética de Bachet lo siguiente: «Es imposible descomponer un cubo en dos cubos, un bicuadrado en dos bicuadrados, y en general, una potencia cualquiera, aparte del cuadrado, en dos potencias del mismo exponente. He encontrado una demostración realmente admirable, pero el margen del libro es muy pequeña para ponerla
Recientemente, en 1994, Andrew John Wiles demostró este teorema. Por dicha demostración se ofrecieron cifras millonarias durantes años.
Wiles nació el 11 de abril de 1953 en Cambridge182, Inglaterra. Según afirma el propio Wiles, su interés por este teorema surgió cuando era muy pequeño.
Tenía 10 años y un día encontré un libro de Matemática en la biblioteca pública que contaba la historia de un problema que yo a esa edad pude entender. Desde ese momento traté de resolverlo, era un desafío, un problema hermoso, este problema era el Último teorema de Fermat.

En 1971 Wiles entró en el Merton College, Oxford y se graduó en 1974.Luego ingresó al Clare College de Cambrige para hacer su doctorado. Para explicar su demostración sobre el enunciado de Fermat, estuvo dos días dando una conferencia a los mas grande matemáticos de la época. Era tan larga que debió partir su explicación en dos conferencia. Para ellos recurrió a las herramientas matemáticas más modernas de la época, a la cual tuvo que incorporarle nuevos conceptos muy complejos, aun para las más grandes de esta apasionante ciencia de los números.
Fermat, tenía razón.

Papá , ¿Cuánto ganas?

La noche había caído ya. Sin embargo, un pequeño hacía grandes esfuerzos por no quedarse dormido; el motivo bien valía la pena: estaba esperando a su papá.
Los traviesos ojos iban cayendo pesadamente, cuando se abrió la puerta; el niño se incorporó como impulsado por un resorte, y soltó la pregunta que lo tenía tan inquieto:
-Papi, ¿cuánto ganas por hora? –dijo con ojos muy abiertos.
El padre, molesto y cansado, fue tajante en su respuesta:
-Mira hijo, eso ni siquiera tu madre lo sabe, no me molestes y vuelve a dormir, que ya es muy tarde.
-Si papi, sólo dime, ¿cuánto te pagan por una hora de trabajo? –reiteró suplicante el niño.
Contrariado, el padre apenas abrió la boca para decir:
-Ochocientos pesos.
-Papi, ¿me podrías prestar cuatrocientos pesos? –preguntó el pequeño.
El padre se enfureció, tomó al pequeño del brazo y en tono brusco le dijo:
-Así es que para eso querías saber cuánto gano, ¿no?. Vete a dormir y no sigas fastidiando, muchacho....
El niño se alejó tímidamente y el padre, al meditar lo sucedido, comenzó a sentirse culpable: "Tal vez necesita algo", pensó, y queriendo descargar su conciencia se asomó al cuarto de su hijo y con voz suave le preguntó:
-¿Duermes hijo?
-Dime papi, respondió él entre sueños.
-Aquí tienes el dinero que me pediste.
-Gracias papi –susurró el niño mientras metía su manita debajo de la almohada, de donde sacó unos billetes arrugados-. ¡Ya completé! –gritó jubiloso-.
Tengo, ochocientos pesos..., ahora papá:
¿ME PODRÍAS VENDER UNA HORA DE TU TIEMPO?

Lentes de contacto con circuitos y luces, posible plataforma para una visión suprahumana

Algunos personajes de las películas como Terminator o la Mujer Biónica usan ojos biónicos para hacer un zoom de las escenas que suceden a lo lejos, muestran datos útiles superpuestos a su campo de visión, o recrean puntos de mira virtuales. Fuera de la pantalla, se han propuesto estos dispositivos virtuales para propósitos más prácticos, como las de ayudas a la visión de las personas con minusvalías, paneles de control holográficos para conducir, e incluso como una forma de poder navegar por la red mientras se va por ahí.
El dispositivo que lograra hacer todo esto podría ser muy familiar. Ingenieros de la Universidad de Washington (UW) han usado por primera vez técnicas de fabricación a escala microscópica para combinar una lente de contacto que sea al mismo tiempo biológicamente segura y flexible, y que incorpore un circuito electrónico impreso e iluminación.
“Observando a través de una lente completada, podrías ver lo que el visor está generando de forma superpuesta al mundo exterior”, comenta Babak Parviz, profesor asistente de ingeniería eléctrica en la UW. “Este es un pequeño paso hacia ese objetivo, pero creo que es extremadamente prometedor”. Harvey Ho, antiguo estudiante de graduado de Parviz que en la actualidad trabaja en los laboratorios nacionales de Sandía en Livermore (California), ha presentado hoy los resultados en la conferencia internacional sobre microsistemas electromecánicos organizada por el Instituto de Ingeniería Eléctrica y Electrónica (IEEE). Otros coautores son Ehsan Saeedi y Samuel Kim del departamento de ingeniería eléctrica de la UW, y Tueng Shen del departamento oftalmológico del centro médico de la UW.
Existen múltiples utilidades posibles para estos visores virtuales. Los conductores o pilotos podrían ver la velocidad del vehículo proyectada sobre el parabrisas. Las compañías de vídeojuegos podrían usar las lentes de contacto para sumergir completamente a los jugadores en un mundo virtual, sin restringir por ello su libertad de movimientos. Y en cuanto a las comunicaciones, la gente que viajase podría navegar por internet a través de una pantalla virtual que flotase en medio del aire y que solo ellos fueran capaces de ver.
“La gente podría encontrarle toda clase de aplicaciones en las que ni siquiera hemos pensado. Nuestro objetivo es demostrar que la tecnología básica puede funcionar y asegurarnos de que lo hace correctamente y de forma segura”, comenta Parviz, que dirige al grupo multidisciplinar en la UW que desarrolla las lentes de contacto electrónicas.
El dispositivo prototípico contiene un circuito eléctrico, así como diodos emisores de luz para el visor, aunque aún no lo han probado en humanos. Las lentes se han probado en conejos durante períodos de hasta 20 minutos, y los animales no han mostrado efectos adversos.
Idealmente, colocarse o quitarse el ojo biónica debería ser tan fácil como ponerse o sacarse una lente de contacto normal, y una vez colocada el portador no debería percibir que el dispositivo está ahí, comenta Parviz.
Construir estas lentes fue todo un reto porque los materiales que son seguros para su uso corporal, como la materia orgánica flexible que se emplea en las lentes de contacto, son delicadas. Fabricar circuitos eléctricos, sin embargo, implica el uso de materiales inorgánicos, temperaturas elevadas y compuestos químicos tóxicos. Los investigadores fabricaron los circuitos a partir de capas de metal de solo unos pocos nanómetros de grosor (apenas una milésima del grosor de un cabello humano) y construyeron los diodos emisores de luz con una longitud de un tercio de milímetro. Luego rociaron el polvo grisáceo de los componentes eléctricos en el interior de una lámina de plástico flexible. La forma de cada diminuto componente dicta que piezas se pueden conectar entre si, una técnica de microfabricación conocida como auto-ensamblado. Fuerzas capilares, el mismo tipo de fuerza que mueve el agua a través de las raíces de una planta, y que hace que el reborde superior de un vaso repleto de agua se curve hacia arriba, coloca las piezas en posición.
El prototipo de la lente de contacto no corrige la visión del portador, pero la técnica podría emplearse sobre lentes correctoras, afirma Parviz. Y todos sus utensilios no obstruirán la visión de la persona.
“Existe un gran área fuera de la parte transparente del ojo que puede usarse para ubicar la instrumentación”, comenta Parviz. Las futuras mejoras añadirán comunicación sin cables hasta y desde las lentes. Los investigadores esperan dotar de energía al sistema empleando una combinación de radio-frecuencia y células solares ubicadas en la propia lente, comentó Parviz.
Habrá que esperar aún para contar con un dispositivo plenamente funcional, pero una versión mucho más básica, con un visor de unos pocos píxels, podría estar operativa “muy rápidamente”, según afirmó Parviz.

Se acelera el deshielo en la Antártida, según revela un estudio internacional

El deshielo en la Antártida aumentó en un 75 por ciento en los últimos 10 años y es casi tan grande como el observado en Groenlandia, reveló hoy un estudio realizado por científicos universitarios y de la NASA.
Los investigadores del Laboratorio de Propulsión a Chorro (JPL) y de la Universidad de California detectaron un aumento de la pérdida de hielo cuya magnitud fue suficiente para elevar el nivel de los océanos que era de 0,3 milímetros por año en 1996 a 0,5 milímetros en 2006.
Según Eric Rignot, científico de JPL, la pérdida de hielo se concentró en la región de Pine Island Bay, en la Antártida Occidental, y en el extremo septentrional de la Península Antártica.
Esos deshielos fueron causados por una aceleración en el flujo de los glaciares antárticos hacia el mar.
Añadió que el avance más rápido de las masas de hielo se debió a un aumento de las temperaturas del mar.
"Los cambios en el flujo de los glaciares está provocando un impacto importante, aunque no dominante en el equilibrio de la masa de hielo antártico", señaló.
Las conclusiones del estudio fueron extraídas de datos proporcionados durante 15 años por los satélites de la NASA, de Europa, Canadá y Japón.
Los científicos indicaron que la pérdida neta de hielo antártico aumentó de 112 gigatoneladas al año en 1996 a 196 gigatoneladas al año en 2006. Una gigatonelada equivale a mil millones de toneladas métricas.
Estos nuevos resultados son alrededor de 20 por ciento superiores a los de un estudio comparable en términos de tiempo difundido por la NASA en marzo del año pasado.
Según Rignot, la mayor contribución de la Antártida al aumento de los niveles marinos indica la necesidad de una observación más estrecha del fenómeno.
"Estos nuevos resultados ilustran la vital importancia de seguir observando a la Antártida para determinar la forma en que continuará esta tendencia", señaló.
El científico indicó que es mucho lo que se desconoce respecto de la futura contribución de la Antártida a esos niveles.
"Las plataformas de hielo están respondiendo más rápido al calentamiento climático que lo que se había anticipado", indicó.
Además de JPL y la Universidad de California, en el estudio también participaron el Centro de Estudios Científicos de Valdivia (Chile), la Universidad de Bristol (Reino Unido), el Instituto de Investigación Marina y Atmosférica de la Universidad de Utrecht y el Instituto Meteorológico Real (Países Bajos) y la Universidad de Missouri (Estados Unidos).

El cambio climático afectará más a la salud que a la economía

El cambio climático tendrá consecuencias devastadoras sobre la salud humana, que superarán a los efectos económicos globales, según informó el viernes un grupo de investigadores, que instaron a que se actúe rápidamente para proteger a la población mundial.
"Mientras intentamos lograr que haya una rápida reducción de las emisiones para evitar el cambio climático, debemos también controlar los, ahora, inevitables riesgos de salud del actual y futuro cambio climático", dijo el australiano Tony McMichael, quien ha dirigido un estudio conjunto publicado por el British Medical Journal.
"Esto tendrá efectos sanitarios adversos en todas las poblaciones, particularmente en las regiones geográficamente vulnerables y de escasos recursos", agregó el experto.
McMichael, del Centro de Epidemiología y Salud Poblacional de Australia, dijo que el aumento de los incendios forestales, las sequías, las inundaciones y las enfermedades como consecuencia del cambio climático implican una amenaza mucho más importante para el bienestar humano que para la economía.
Un informe de 2006 del ex economista jefe del Banco Mundial Nicholas Stern señaló que el cambio climático tiene el potencial de reducir la economía mundial entre un 5 y un 20 por ciento, lo que provocaría un impacto similar al de la Gran Depresión.
Pero McMichael expresó que el problema ambiental traería cambios en los patrones de las enfermedades infecciosas, como consecuencia del deterioro de las cosechas alimenticias y la pérdida de sus medios de trabajo para muchas personas.
Si bien es poco probable el surgimiento de tipos completamente nuevos de enfermedades, sí habría efectos en los patrones de frecuencia, rango y temporada de aparición de muchas condiciones existentes. Un ejemplo de esto sería la posible expansión de entre 20 y 70 millones de personas más el número de expuestos a las zonas de expansión de la malaria en el 2080, agregó.
Además, el impacto sería mucho más duro en los países pobres, según los investigadores, entre los que se encuentran Sharon Friel, de la Universidad Nacional de Australia, Tony Nyong, de la Universidad Jos de Nigeria, y Carlos Corvalán, de la Organización Mundial de la Salud OMS).
"Las enfermedades infecciosas no pueden controlarse en circunstancias de inestabilidad climática, flujos de refugiados y empobrecimiento", ha dicho McMichael.
"La pobreza no puede eliminarse mientras el deterioro ambiental exacerba los problemas de nutrición, las enfermedades y las lesiones", ha agregado el especialista.
Para McMichael, es necesario tomar decisiones inmediatamente para involucrar a los profesionales de la salud en el planeamiento de programas para minimizar el impacto del cambio climático.
Por su parte, Kevin Parton, de la Universidad Charles Sturt de Australia, ha señalado: "Los riesgos sanitarios son masivos y la mejor forma de mitigarlos es minimizando la expansión del cambio climático. La salud de la comunidad global es el problema del cambio climático".*.

25 ene. 2008

Ignorancia en estado puro

El dicho ese de que las mujeres listas son feas y que las mujeres guapas son tontas, parece que va cobrando sentido, por lo menos la segunda parte de esa frase.
A Miss Carolina del Sur, participante del concurso de Miss Teen USA 2007, no se le ocurrió otra cosa que responder con esta estúpida respuesta a una pregunta que le lanzaron. Y atención a la mueca final del presentador, para mi que se estaba aguantando la risa.



La paradoja de los gemelos

La mayoría de la gente habrá oído hablar de la paradoja de los gemelos, que tiene que ver con la Teoría de la Relatividad de Einstein, si bien, en numerosas ocasiones es explicada de forma incorrecta. ¿De qué trata? Bueno, imaginemos a dos hermanos gemelos, uno de los cuales se monta en una nave espacial y se dirige hacia una estrella a unos pocos años luz, mientras que el otro se queda en la Tierra. La nave espacial no puede viajar más rápido que la luz, pero sí que lo hace a una fracción considerable de ésta. En consecuencia, el viaje dura algunos años. El viajero llega a su destino, se queda un tiempo y decide volver. La Relatividad Especial nos dice que el tiempo se ralentiza con la velocidad, de forma que para el viajero, el tiempo transcurre más lentamente que para su hermano, y por tanto envejece más despacio. Así, cuando se ambos se reencuentran en la Tierra, el viajero es más joven que su hermano. Supongamos, por ejemplo, que el hermano que permaneció en la Tierra ha envejecido 10 años, y el viajero sólo ha envejecido 6. En muchas ocasiones, la explicación termina aquí. En realidad, esto no es ninguna paradoja. No hay ninguna contradicción. Es una forma sencilla de explicar el efecto de dilatación temporal de la Relatividad Especial.
La verdadera paradoja surge cuando tenemos en cuenta que la velocidad no tiene un sentido absoluto, sino que es relativa. En efecto, si viajo en tren y voy caminando hacia la cafetería ¿cuál es mi velocidad? Pues depende, ya que una pregunta así está mal formulada. Velocidad ¿con respecto a qué? Mi velocidad con respecto al tren será muy diferente a mi velocidad con respecto al exterior. Pues bien, la explicación anterior de los gemelos está explicada desde el punto de vista del gemelo que se queda en la Tierra. Él ve a su hermano moverse a una velocidad considerable con respecto a su sistema de referencia, y por tanto el tiempo transcurre más despacio para su hermano. Pero ¿qué pasa si lo hacemos desde el punto de vista del gemelo viajero? En su sistema de referencia (la nave), sería la Tierra la que se mueve con respecto a él, por lo que sería su hermano (el de la Tierra) el que experimentara la dilatación temporal. Al regresar, el viajero esperaría encontrarse a su hermano más joven que él. Es decir, ambos esperan ver a su otro hermano más joven que él mismo. Y lógicamente, esto no puede ocurrir. O tienen la misma edad, o uno es más joven que el otro, pero no puede ser que ambos sean más jovenes que el otro simultáneamente. Pues bien, eso sí es una paradoja.
La paradoja de los gemelos fue imaginada hace casi un siglo, poco después de que Einstein desarrollara su Teoría Especial de la Relatividad, allá por 1905. Según algunas fuentes, fue el propio Einstein quien planteo la paradoja por primera vez, y según otras, fue el físico francés Paul Langevin. En cualquier caso, esta paradoja es una de las que nos muestran que la Relatividad puede llegar a ser difícil de comprender si intentamos razonar dentro de los límites de la mecánica clásica, que es la que podemos experimentar en nuestra vida cotidiana.

Comprendiendo la Realidad
Cuando tras un razonamiento, llegamos a una contradicción (en este caso, que ambos gemelos son más jóvenes que su hermano), o bien la premisa es falsa, o bien el razonamiento es incorrecto. La Relatividad ha sido corroborada de forma empírica en numerosas ocasiones, por lo que necesariamente es el razonamiento el que ha fallado.
Lo primero que hay que entender de la Relatividad, es que en realidad son dos teorías: la Relatividad Especial y la Relatividad General. Eninstein desarrolló la Teoría Especial de la Relatividad al intentar unificar la mecánica clásica y el electromagnetismo. Parte de dos postulados. El primero de ellos se basa en la invariancia de Galileo, y nos dice que las leyes físicas son las mismas para cualquier observador inercial, o lo que es lo mismo, que no existe un sistema de referencia inercial preferente. El segundo nos dice que la velocidad de la luz es independiente de la velocidad del observador.
¿Qué quiere decir todo esto? El primer postulado es algo que todos más o menos sabemos, y que he comentado al exponer la paradoja de los gemelos. La velocidad no es absoluta, sino relativa. No importa si estoy en reposo o si me muevo a velocidad constante. En mis experimentos y observaciones, puedo adoptar cualquier sistema de referencia en reposo o en movimiento rectilíneo y uniforme, es decir, cualquier sistema de referencia inercial, y obtendré los mismos resultados.
El segundo postulado es el que “lo complica todo”. El que la velocidad de la luz (en el vacío) sea siempre la misma, independientemente de la velocidad del observador, es algo antiintuitivo. Si viajamos a 90 km/h y un coche nos adelanta a 120 km/h, es evidente que el otro coche se mueve a 30 km/h con respecto a nosotros. Sin embargo, si viajamos en una nave a la mitad de la velocidad de la luz, y nos lanzan señales electromagnéticas desde la Tierra, veremos esas señales llegar hasta nosotros a la velocidad de la luz, no a la mitad de esa velocidad. Y sin embargo, desde la Tierra también verán esas señales viajando a la velocidad de la luz. Todo esto trae como consecuencia la famosa dilatación temporal, y otros efectos de los que luego hablaré.

Limitaciones de la Relatividad Espacial
Pero fijaos otra vez en el primer postulado. Habla de sistemas de referencia inerciales. La Relatividad Especial sólo es aplicable a sistemas de referencia inerciales, es decir, a sistemas de referencia que estén en reposo o se muevan en línea recta con velocidad constante. En el caso de la paradoja de los gemelos, llega un momento en el que la nave da la vuelta, es decir, su velocidad varía. Está sometido a aceleraciones, y por lo tanto, la nave deja de ser un sistema de referencia inercial. La Relatividad Especial no puede aplicarse.
En ocasiones, se utiliza una versión modificada de la paradoja, en la que ambos gemelos orbitan alrededor de la Tierra, a la misma velocidad constante, siguiendo idénticas trayectorias, pero en sentidos opuestos. Aunque la velocidad sea constante, ninguno de los gemelos es un sistema de referencia inercial, puesto que siguen trayectorias curvas (circunferencias o elipses). Por tanto tampoco se puede aplicar la Relatividad Especial.
Estas limitaciones de la Relatividad Especial llevaron a Einstein a ampliar su teoría para tener en cuenta sistemas no inerciales, desarrollando la Teoría General de la Relatividad. Los nombres de las teorías con bastante descriptivos: la Relatividad General es una teoría global, que se puede aplicar en todo momento. La Relatividad Especial es una versión particularizada de la Relatividad General, que sólo se puede aplicar en casos muy específicos (en sistemas de referencia inerciales). Las matemáticas implicadas en la Relatividad General son muy complejas, mientras que las de la Relatividad Especial son bastante sencillas, por lo que cuando se puede, es preferible utilizar esta última.

La paradoja, dentro de la Relatividad Especial
¿Podemos imaginar un experimento similar al de la paradoja de los gemelos, dentro de la Relatividad Especial? Sí. Imaginemos una nave espacial viajando en línea recta hacia la Tierra. Tras pasar por la ésta, continúa su camino hacia un planeta, que llamaremos planeta X, y una vez alcanzado, continua su camino.
En este caso, tanto el sistema de referencia centrado en la Tierra, como el centrado en la nave, son inerciales. Podemos aplicar la Relatividad Especial. Un observador de la Tierra vería que el tiempo transcurre más lentamente dentro de la nave. Y un observador en la nave, vería que el tiempo transcurre más lentamente en la Tierra.
¿Paradoja? Tampoco. Simplemente no estamos teniendo en cuenta otros efectos e la Relatividad Especial.


Contracción espacial
La dilatación temporal no es el único efecto de la Relatividad Espacial. Para un observador cualquiera, un objeto en movimiento con respecto a él, parece más corto que cuando está en reposo. Es decir, el espacio se contrae en la dirección del movimiento.
Una forma de ilustrarlo es con la llamada paradoja de la escalera, aunque para explicarla utilizaré un tren y un tunel, que creo que es más sencillo (en la paradoja original, se utiliza una escalera de mano y un garaje). Imaginemos una via ferrea recta que atraviesa un tunel. Imaginemos un tren cuya longitud es igual a la del tunel. Esta medición la hacemos cuando el tren está parado. Parece bastante evidente que cuando el tren atraviesa el tunel, la parte delantera alcanza la salida justo en el momento en el que la cola pasa por la entrada.
Pero imaginemos que el tren se desplaza a una velocidad cercana a la de la luz. Para un observador situado en la vía (en reposo con respecto al tunel), el tren sufre una contracción espacial por estar en movimiento, y es más corto que el tunel. Durante un tiempo, el tren estará completamente dentro del tunel, o lo que es lo mismo, cuando la cola alcance la entrada, la cabecera aún no habrá llegado a la salida.
Sin embargo, para un observador situado en el tren, es el tunel el que su mueve, y por tanto, es el tunel quien sufre la contracción espacial, haciéndose más corto. Para él, el tunel será más corto que el tren, y éste nunca estará completamente dentro del tunel. Es decir, cuando la cabecera alcanza la salida, la cola aún no ha llegado a la entrada.
Entonces, el tren ¿cabe o no cabe dentro del tunel?


El factor de Lorenz
Antes de seguir, conviene preguntarse cuánto se dilata el tiempo o cuánto se contrae el espacio en función de la velocidad. La respuesta viene dada por el llamado factor de Lorentz, que se representa por la letra griega γ, y se define de la siguiente forma:
γ=1/(1-v2/c2)1/2
donde v es la velocidad de uno de los sistemas inerciales con respecto al otro y c la velocidad de la luz. En un sistema de referencia cualquiera, un objeto moviéndose a velocidad v con respecto a él, parecerá γ veces más corto, y el tiempo parecerá transcurrir γ veces más despacio. Es decir, para calcular la longitud o el tiempo transcurrido en el objeto móvil, debemos dividir por γ. Podemos ver que para velocidades muy pequeñas, γ es aproximadamente 1, y por tanto, no apreciamos ninguno de estos fenómenos.
Veamos ahora ambos efectos, la dilatación temporal y la contracción espacial, en nuestro escenario de la nave. Para ver mejor lo que quiero explicar, supongamos que dos naves realizan el mismo viaje: se acercan a la Tierra a velocidad constante y en línea recta, continúan hacia el planeta X, y lo sobrepasan, continuando su camino. Las llamaremos nave A y nave B. Imaginemos que el planeta X hacia el que se dirigen las naves está a 4 años luz de la Tierra, y que éstas viajan a 0,8 c (es decir, un 80% de la velocidad de la luz). Esto nos da un γ de 1,6666… Como tenemos un número infinito de decimales, será más cómodo utilizar el inverso de γ (es decir, 1/γ) que es 0,6. Es decir, en vez de dividir por 1,66666… multiplicaremos por 0,6.
Bien, imaginemos también que en desde el punto de vista de las naves (es decir, en su sistema de referencia, que se desplaza a 0,8 c con respecto a la Tierra) estan separadas también 4 años luz entre sí. Además, en el momento en el que la nave A pasa junto a la Tierra, los relojes de la nave A y de la Tierra están sincronizados, y marcan 0.
Para un observador de la Tierra, las naves recorren una distancia de 4 años luz a 0,8 c, por lo que aplicando la sencilla fórmula que relaciona distancia, velocidad y tiempo (t=v/d) la duración del viaje sería de 5 años (4/0,8=5). Debido a la dilatación temporal, el observador terrestre calcula que el tiempo de las naves pasa más lentamente, concretamente, cuando la nave A llega al planeta X, el tiempo transcurrido para ellas debería ser de 3 años (5·0,6=3), es decir, el reloj de la primera nave debería marcar 3. Además, debido a la contracción espacial, para el observador terrestre, las naves están separadas 2,4 años luz entre sí (4·0,6=2,4). Eso quiere decir que la nave B pasará junto a la Tierra 3 años después que la primera (2,4/0,8), en tiempo de la Tierra, que corresponderían a 1,8 años en tiempo de la nave (3·0,6=1,8). Es decir, la nave B pasaría junto a la Tierra, antes de que la nave A llegue al planeta X. La segunda nave también tardaría 5 años en llegar al Planeta X, lo que sumados a los 3 años que tarda en acercarse a la Tierra, tenemos que el reloj terrestre marcaría 8 años, y el de la nave 4,8 (8·0,6=4,8).
Pongámonos ahora en la piel del piloto de la nave A. Pera él, tanto su nave como la nave B están quietas, y son los planetas los que se dirigen hacia ellas. En su sistema de referencia, las naves están separadas 4 años luz, puesto que están en reposo. La distancia entre la Tierra y el planeta X se ha acortado a 2,4 años luz, por estar en movimiento con respecto a ellas. Así, puesto que se mueve a 0,8 c, el viaje desde la Tierra hasta el planeta dura 3 años (2,4/0,8=3). ¡Vaya! Lo mismo que había calculado el observador terrestre. Pero sigamos. Como la Tierra tiene que recorrer 4 años luz entre ambas naves (recordemos que en este sistema de referencia, son los planetas los que se mueven), la nave B se encontrará con él 5 años después que la nave A (4/0,8=5). El planeta X se encontrará con la nave B, 3 años después de este momento, es decir, 8 años después del inicio del experimento.
El piloto de la nave calculará que el tiempo de la Tierra transcurre más lentamente, exactamente en la misma proporciona que había calculado el observador terrestre para la nave. Es decir, cuando la nave A llegue al planeta X, pensará que en la Tierra sólo habrán transcurrido 1,8 años (3·0,6=1,8).
Parece que algo no cuadra ¿verdad? No sólo con respecto a los tiempos, que siempre son menores en “el otro” sistema de referencia. Fijaos en el orden de sucesos. Para el observador terrestre, primero pasa la nave B junto a la Tierra y, después la nave A llega al planeta X. Pero para el piloto, la nave A llega al planeta X antes de que la nave B pase junto a la Tierra. ¿Cómo es posible?

Relatividad de la simultaneidad
Este ejemplo mezcla la paradoja de los gemelos y la paradoja de la escalera, e ilustra algo que es fundamental para comprender realmente todas las implicaciones de la Relatividad Especial, y que normalmente es ignorado por la mayoría de la gente: la relatividad de la simultaneidad. La simultaneidad de dos sucesos depende del observador, o lo que es lo mismo, el orden cronológico de dos sucesos puede variar dependiendo del observador.
Esto explica la paradoja de la escalera, que expuse antes con el tren y el tunel. Debemos olvidarnos del concepto “caber en el tunel”, y pensar únicamente en términos de sucesos. Para el observador de la vía, el suceso “la cabecera cruza la salida” es posterior al suceso “la cola cruza la entrada”. Sin embargo, para el viajero del tren, el suceso “la cabecera cruza la salida” es anterior al suceso “la cola cruza la entrada”.
¿Y qué pasa con la paradoja de los gemelos? Pues algo similar. No hay que pensar en términos de transcurso del tiempo, sino en términos de sucesos tipo “el reloj marca tal tiempo”. Así, los sucesos “el reloj terrestre marca 5” y “la nave A llega al planeta X” son simultáneos para el observador terrestre, pero para el piloto ocurrirán en momentos muy diferentes. Por el contrario, para él, serán simultáneos los sucesos “el reloj de la Tierra marca 1,8” y “la nave A llega al planeta X”.

Causalidad
Puesto que el orden de sucesos se altera dependiendo del observador, uno podría preguntarse qué ocurre con la causalidad. Existen sucesos que son consecuencia de otros. ¿Podría ser que para un observador, la consecuencia precediera a la causa? No. Únicamente sucesos que no están conectados causalmente, pueden alterar su orden. Fijáos que en el ejemplo de las naves, para ambos observadores, la nave A pasa por la Tierra primero, y llega al planeta X después. La llegada al planeta X es consecuencia de su paso por la Tierra. Lo mismo sucede con el tren y el tunel. Siempre cruzará primero la entrada la cabecera y después la cola, y nunca al revés.
En el caso de las naves, los sucesos “la nave A pasa junto al planeta X” y “la nave B pasa junto a la Tierra” no están conectados causalmente y pueden alterar su orden. Esto es porque son eventos muy “distantes” en el espacio-tiempo, como para que uno influya en el otro.
¿Seguro? Imaginemos que la nave A, al llegar al planeta X, descubre una flota alienígena hostil que les ataca. Desde el punto de vista de la nave A, a la nave B aún le quedan 2 años para pasar junto a la Tierra, así que el piloto decide enviar una señal de alarma al Mando Terrestre, para que ordene a la nave B que no continue su camino, y se detenga antes de llegar a la Tierra. La distancia entre los planetas es de 2,4 años luz en el sistema de referencia del piloto, por lo que la señal de alarma tarda 2,4 años en llegar. Es decir, demasiado tarde, pues la nave B ya habrá pasado junto a la Tierra. Nada puede viajar más rápido que la luz, incluyendo la información, por lo que el suceso “la nave A pasa junto al planeta X” está demasiado separado del suceso “la nave B pasa junto a la Tierra”, como para que pueda influir en él.

Taquiones
Alguno pensará ahora en los taquiones. ¿Qué son los taquiones? Pues son unas partículas hipotéticas que viajarían a velocidades superiores a la de la luz. La Relatividad Especial permite la posible existencia de dichas partículas, que serían muy peculiares: su masa sería un número imaginario (es decir, raíz cuadrada de un número negativo), y nunca podrían ir más despacio que la velocidad de la luz. Ni siquiera podrían alcanzarla.
Sin embargo, su existencia sería un problema desde el punto de vista de la causalidad. Si se puede transmitir información a más velocidad que la luz, la señal de alarma de la nave A llegaría a la Tierra antes que la nave B, desde el punto de vista del piloto. Pero recordemos que para un observador terrestre. Primero llega la nave B a la Tierra, y después llega la nave A al planeta X. ¿Cómo es posible que llegue una señal de alerta, iniciada por la nave A al llegar al planeta X, antes de que realmente llegue?
Pues no es posible. Así que una de dos: o los taquiones no pueden existir, o en caso de hacerlo, no pueden utilizarse para transmitir información. Una pena, ya que si esto es así, nunca descubriremos un modo de viajar más rápido que la luz, o comunicarnos de forma casi instantanea entre las estrellas.

Conclusión
Si habéis conseguido llegar hasta aquí, y si habéis asimilado todo esto, comprenderéis que la paradoja de los gemelos en realidad no existe. Es fruto de una comprensión incompleta de la Relatividad.
Para los curiosos que se preguntan “sí, vale, pero ¿qué ocurre entonces cuando el gemelo viajero da la vuelta?”. Pues algo muy curioso. Utilicemos los mismos valores que con las dos naves. El planeta está a 4 años luz y la velocidad de la nave es de 0,8 c. Durante el viaje vería que su hermano envejece más lentamente que él, de forma que al llegar al planeta, él ha envejecido 3 años, y su hermano sólo 1,8. Pero al realizar la maniobra de “media vuelta” someterse a aceleraciones y cambiar de sistema de referencia, vería cómo su hermano envejece 6,4 años muy rápidamente, superándole en edad. ¿Cómo? Pues debido a la Relatividad General (que debo reconocer que me supera). Durante el viaje de vuelta, volvería a apreciar que el tiempo pasa más despacio en la Tierra, y al igual que antes, él envejece 3 años mientras su hermano envejece sólo 1,8. Al llegar, el viajero habrá envejecido 6 años (3 en la ida y 3 en la vuelta), y su hermano que se quedó en la Tierra, 10 años (1,8 en la ida, 1,8 en la vuelta, y 6,4 durante la maniobra de cambio de sentido). El que viaja es el que envejece más despacio.

Pueden experimentar todo el proceso, sin necesidad de construir una nave espacial, en esta página de ENCIGA, pero para lo que necesitáis tener instalado el último plugin de Java, y además el API de Java 3D.

La vida artificial, cada vez más cerca

Científicos estadounidenses anunciaron un importante avance en los esfuerzos por crear una forma de vida artificial.
Según ellos, en el futuro esta tecnología se podría utilizar para producir combustibles no contaminantes y reducir el dióxido de carbono de la atmósfera
Los investigadores dijeron que replicaron en el laboratorio el código completo de ADN de una bacteria común, la Mycoplasma genitalium.
A la versión sintética la llamaron Mycoplasma JCVI-1.0, en honor de su centro de estudios, el Instituto J Craig Venter, de Rockville, Maryland.
El jefe del equipo es el Dr. Craig Venter, el biólogo que dirigió los esfuerzos privados para descifrar el genoma humano.
"Nuestro equipo acaba de publicar en la revista Science un artículo en que el se describe la mayor molécula creada por el hombre de una estructura definida: es un cromosoma, un genoma de una bacteria con más de 570.000 pares de base ", dijo Venter
"Nosotros determinamos el código genético del genoma de una bacteria y lo llevamos a una computadora -a partir de cuatro botellas de sustancias químicas- para recrear ese cromosoma de una forma completamente sintética en el laboratorio", explicó. El Dr. Venter dijo que una buena analogía para entender este tema tan complejo es precisamente compararlo con el funcionamiento de una computadora.
"Uno puede imaginarse que el código genético y los cromosomas son los programas fundamentales de nuestro sistema operativo", dijo.
Según él, eso es lo que su equipo acaba de crear, pero todavía falta poner ese "sistema operativo" en marcha.
"Ahora lo que tenemos que hacer es lo que ya hicimos con nuestro estudio sobre el trasplante de cromosomas -sobre el que ustedes informaron el año pasado- y ponerlo en una célula, activarlo y deshacernos de los otros cromosomas de esa célula".
Esperamos lograrlo este año, pero es importante destacar que lo que estamos haciendo es tratar de entender el sistema operativo mínimo de una célula, lo que prepararía el terreno para en el futuro diseñar cosas con objetivos muy específicos".
"Estos experimentos iniciales son sólo para poner el concepto a prueba, ya que se trata de algo totalmente nuevo para la ciencia".
Algunos críticos han señalado que la creación de vida artificial encierra peligros potenciales porque nadie sabe qué podrían hacer o en qué se podrían transformar esas formas de vida.
Dr. Venter dijo que esos temores son injustificados.
"En realidad, podemos saber con seguridad lo que harán, si comprendemos cómo funcionan los genes en un organismo".
"Es muy claro lo que hacen y es precisamente por eso que la biología por diseño tiene sentido, pues podemos obligarlos a que hagan exactamente lo que queremos".
Sin embargo, reconoció que sí hay otros temores que podrían tener justificación.
"Una preocupación legítima es que alguna persona poca ética quiera hacerle daño a alguien de forma deliberada".
"Pero lo que no hay que temer es que estos organismos inofensivos se convertirán, por arte de magia, en potencialmente ofensivos".
"Todo tipo de tecnología se puede prestar a abusos: uno puede utilizar un martillo para construir una casa o para romperle la cabeza a alguien".
Posibles aplicaciones
El científico explicó que este tipo de tecnología podría tener importantes aplicaciones en el ámbito energético.
Las nuevas tecnologías podrían ofrecer alternativas a los combustibles fósiles."En el futuro toda la industria petroquímica, incluidos los combustibles, podría ser sustituida por la biología".
"Me parece que el tema más importante para la humanidad en estos momentos es que estamos sacando de la tierra enormes cantidades de petróleo y de carbón, las estamos quemando y poniendo todo ese carbono en la atmósfera".
"Si no buscamos fuentes alternativas con urgencia, las consecuencias serán muy graves, no hipotéticas o de ciencia ficción".
"La biología podría crear fuentes únicas para obtener energía directamente de la luz solar que en el futuro tal vez no tendrían que utilizar cultivos o competir con la producción de alimentos".
"De hecho, ya tenemos células que pueden capturar la energía de la luz solar o el dióxido de carbono del ambiente".
"La biología apenas se ha explorado para ofrecer sustitutos al petróleo y el carbón, pero creo que estamos en la etapa inicial de esa exploración, lo que nos ofrece posibilidades fascinantes de utilizar diseños inteligentes para hacerlo de una forma segura y productiva", concluyó.

24 ene. 2008

Historia de la computación y Conceptos Informáticos (VI)

Por ultimo y no menos improtantes son los Sistemas Operativos
Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.
Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado autoprueba de encendido (Power On Self Test, POST). Durante la POST, la computadora identifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot).
Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales:
1. Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS. Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús.
2. Administrar los dispositivos de hardware en la computadora · Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el hardware.
3. Administrar y mantener los sistemas de archivo de disco · Los SO agrupan la información dentro de compartimientos lógicos para almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos.
4. Apoyar a otros programas. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema"

El Kernel y el Shell.
Las funciones centrales de un SO son controladas por el núcleo (kernel) mientras que la interfaz del usuario es controlada por el entorno (shell). Por ejemplo, la parte más importante del DOS es un programa con el nombre "COMMAND.COM" Este programa ti ene dos partes. El kernel, que se mantiene en memoria en todo momento, contiene el código máquina de bajo nivel para manejar la administración de hardware para otros programas que necesitan estos servicios, y para la segunda parte del COMMAND.COM el shell, el cual es el interprete de comandos.
Las funciones de bajo nivel del SO y las funciones de interpretación de comandos están separadas, de tal forma que puedes mantener el kernel DOS corriendo, pero utilizar una interfaz de usuario diferente. Esto es exactamente lo que sucede cuando carga s Microsoft Windows, el cual toma el lugar del shell, reemplazando la interfaz de línea de comandos con una interfaz gráfica del usuario. Existen muchos shells diferentes en el mercado, ejemplo: NDOS (Norton DOS), XTG, PCTOOLS, o inclusive el mismo SO MS-DOS a partir de la versión 5.0 incluyó un Shell llamado DOS SHELL.

A.) Categorías de Sistemas Operativos
A.1) MULTITAREA: El término multitarea se refiere a la capacidad del SO para correr mas de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar SO multitarea, el primero requiere de la cooperación entre el SO y los programas de aplicación.
Los programas son escritos de tal manera que periódicamente inspeccionan con el SO para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea cooperativa y es el método utilizado por el SO de las computadoras de Machintosh y DOS corriendo Windows de Microsoft. El segundo método es el llamada multitarea con asignación de prioridades. Con este esquema el SO mantiene una lista de procesos (programas) que están corriendo. Cuando se inicia cada proceso en la lista el SO le asigna una prioridad. En cualquier momento el SO puede intervenir y modificar la prioridad de un proceso organizando en forma efectiva la lista de prioridad, el SO también mantiene el control de la cantidad de tiempo que utiliza con cualquier proceso antes de ir al siguiente. Con multitarea de asignación de prioridades el SO puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea.

A.2) MULTIUSUARIO: Un SO multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el SO también debe ser capaz de efectuar multitareas. Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una minicomputadora, era multiusuario y multitarea desde su concepción.
Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM,y Sunsoft. Apple también produce una versión de Unix para la Machintosh llamada: A/UX.Unix
Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo.
1.) Mediante Módems.
1. Mediante conexión de terminales a través de puertos seriales

3.) Mediante Redes.
A.3) MULTIPROCESO: Las computadoras que tienen mas de un CPU son llamadas multiproceso. Un sistema operativo multiproceso coordina las operaciones de la computadoras multiprocesadoras. Ya que cada CPU en una computadora de multiproceso puede estar ejecutando una instrucción, el otro procesador queda liberado para procesar otras instrucciones simultáneamente.
Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos. Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja.
Los primeros Sistemas Operativos Multiproceso realizaban lo que se conoce como:
· Multiproceso asimétrico: Una CPU principal retiene el control global de la computadora, así como el de los otros procesadores. Esto fue un primer paso hacia el multiproceso pero no fue la dirección ideal a seguir ya que la CPU principal podía convertirse en un cuello de botella.
· Multiproceso simétrico: En un sistema multiproceso simétrico, no existe una CPU controladora única. La barrera a vencer al implementar el multiproceso simétrico es que los SO tienen que ser rediseñados o diseñados desde el principio para trabajar en u n ambiente multiproceso. Las extensiones de Unix, que soportan multiproceso asimétrico ya están disponibles y las extensiones simétricas se están haciendo disponibles. Windows NT de Microsoft soporta multiproceso simétrico.
B.) Lista de los Sistemas Operativos más comunes.
B.1) MS-DOS: Es el más común y popular de todos los Sistemas Operativos para PC. La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.
Cuando Intel liberó el 80286, D OS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC. En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.
B.2) OS/2: Después de la introducción del procesador Intel 80286, IBM y Microsoft reconocieron la necesidad de tomar ventaja de las capacidades multitarea de esta CPU. Se unieron para desarrollar el OS/2, un moderno SO multitarea para los microprocesadores Intel. <>Sin embargo, la sociedad no duró mucho. Las diferencias en opiniones técnicas y la percepción de IBM al ver a Windows como una amenaza para el OS/2 causó una desavenencia entre las Compañías que al final las llevó a la disolución de la sociedad.
IBM continuó el desarrollo y promoción del OS/2.
Es un sistema operativo de multitarea para un solo usuario que requiere un microprocesador Intel 286 o mejor. Además de la multitarea, la gran ventaja de la plataforma OS/2 es que permite manejar directamente hasta 16 MB de la RAM ( en comparación con 1 MB en el caso del MS-DOS ). Por otra parte, el OS/2 es un entorno muy complejo que requiere hasta 4 MB de la RAM. Los usuarios del OS/2 interactuan con el sistema mediante una interfaz gráfica para usuario llamada Administrador de presentaciones. A pesar de que el OS/2 rompe la barrera de 1 MB del MS-DOS, le llevo tiempo volverse popular. Los vendedores de software se muestran renuentes a destinar recursos a la creación de un software con base en el OS/2 para un mercado dominado por el MS-DOS. Los usuarios se rehusan a cambiar al OS/2 debido a la falta de software que funcione en la plata forma del OS/2 y a que muchos tendrían que mejorar la configuración de su PC para que opere con el OS/2.
B.3) UNIX: Unix es un SO multiusuario y multitarea, que corre en diferentes computadoras, desde supercomputadoras, Mainframes, Minicomputadoras, computadoras personales y estaciones de trabajo.
Es un sistema operativo que fue creado a principios de los setentas por los científicos en los laboratorios Bell. Fue específicamente diseñado para proveer una manera de manejar científica y especializadamente las aplicaciones computacionales. Este SO se adapto a los sistemas de computo personales así que esta aceptación reciente lo convierte en un sistema popular.
. Unix es más antiguo que todos los demás SO de PC y de muchas maneras sirvió como modelo para éstos. Aun cuando es un SO extremadamente sólido y capaz, la línea de comandos Unix, no es apta para cardiacos, debido a que ofrece demasiados comandos.
B.4) SISTEMA OPERATIVO DE MACINTOSH: La Macintosh es una máquina netamente gráfica. De hecho, no existe una interfaz de línea de comando equivalente para ésta. Su estrecha integración de SO, GUI y área de trabajo la hacen la favorita de la gente que no quiere saber nada de interfaces de línea de comando.
Las capacidades gráficas de la Macintosh hicieron de esa máquina la primera precursora en los campos gráficos computarizados como la autoedición por computadora.
La familia de microcomputadoras de Apple Macintosh y su sistema operativo define otra plataforma importante. Las PC de Macintosh, que se basan en la familia de microprocesadores de Motorola, usan la arquitectura de Bus de 32 bits. La plataforma para Macintosh incluye muchas capacidades sofisticadas que comprende la multitarea, una GUI, la memoria virtual y la capacidad para emular la plataforma MS-DOS. Las PC de Macintosh también tiene la capacidad integrada de compartir archivos y comunicarse con o tras PC de Macintosh en una red.
B.5) WINDOWS NT DE MICROSOFT: Con Windows NT, Microsoft ha expresado su dedicación a escribir software no sólo para PC de escritorio sino también para poderosas estaciones de trabajo y servidores de red y bases de datos. Microsoft Windows NT no es necesariamente un sustituto de DOS ni una nueva versión de éste; es, en conjunto, un nuevo SO diseñado desde sus bases para las máquinas más modernas y capaces disponibles.
Windows NT de Microsoft ofrece características interconstruidas que ningún otro SO para PC ofrece, con excepción de Unix.
Además de las características tradicionales de estricta seguridad de sistema, red interconstruida, servicios de comunicación y correo electrónico interconstruidos, herramientas de administración y desarrollo de sistema y una GUI, Windows NT puede correr directamente aplicaciones de Windows de Microsoft y de Unix.
Windows NT, al igual que el OS/2 ver 2.0 y algunas versiones de Unix, es un SO de 32 bits, que puede hacer completo uso de los procesadores de estas características.
Además de ser multitarea, está diseñado para tomar ventaja del multiproceso simétrico.

Como Funciona un horno de Microondas ?¿

Un poco de historia
En 1945 Percy Spencer, un científico americano, descubrió las posibilidades culinarias de las microondas al preparar con éxito palomitas de maíz.


¿Qué son las microondas?
Las microondas son ondas electromagnéticas de la misma naturaleza que las ondas de radio, luz visible o rayos X. Lo que diferencia a cada una de las ondas del espectro electromagnético es su frecuencia (o de forma equivalente su longitud de onda). Así por ejemplo:
Ondas de radio FM comercial : de 88 MHz a 108MHz
Ondas de luz visible : de 750 THz (violeta) a 428 THz (rojo)
Microondas : de 100 MHz a 100 GHz
Las microondas utilizadas en muchos de los hornos tienen una frecuencia de 2,45 GHz.
Las comunicaciones y el radar son otras dos aplicaciones de las microondas.
[ M = 106; G = 109; T = 1012]

¿Cómo calientan la comida las microondas?
Los alimentos en general contienen agua en una proporción elevada. El agua está formada por moléculas polares. Esto quiere decir que podemos considerar la molécula de agua como una estructura con dos polos en los extremos, uno positivo y el otro negativo.
Las microondas son capaces de tirar de los polos de las moléculas polares forzándolas a moverse. El sentido en que las microondas tiran de las moléculas cambia 2.450.000.000 veces por segundo. Esta interacción entre microondas y moléculas polares provocan el giro de éstas.
Las microondas hacen rotar más o menos eficientemente al resto de moléculas polares que hay en los alimentos además del agua. Las microondas sin embargo no tienen ningún efecto sobre las moléculas apolares (sin polos), por ejemplo los plásticos. Tampoco ejercen efecto sobre sustancias polares en las que las partículas que las forman no tienen movilidad. En este grupo estaría el agua sólida, la sal común, la porcelana o el vidrio,
Una vez que las moléculas de agua presentes en los alimentos comienzan a girar, pueden transferir parte de esta energía mediante choques con las moléculas contiguas. Este mecanismo hará que por conducción todo el alimento acabe calentándose.

Chile es el cuarto país latinoamericano que más respeta el medio ambiente


El Indice de actuación medioambiental 2008, difundido hoy por el Foro Económico Mundial en Davos, reveló que Chile ocupa el cuarto lugar entre los países latinoamericanos más respetuosos con el medio ambiente.
El índice, elaborado por un equipo de expertos medio ambientales de las Universidades de Yale y Columbia, ordena a 149 países de acuerdo a 25 indicadores basados en seis criterios: la salud medioambiental, polución del aire, recursos de agua, biodiversidad y hábitat, recursos naturales productivos y cambio climático.
La lista la encabeza Suiza, seguido de Suecia, Noruega, Finlandia y Costa Rica, mientras que los últimos cinco de la lista son todos africanos: Mali, Mauritania, Sierra Leona, Angola y Níger.
Sólo Costa Rica y Colombia representan a América Latina en el Top Ten de la lista, ocupando el quinto y el noveno lugar. Tras ellos, siguen en América Canadá, Ecuador, Chile y Panamá, mientras los últimos puestos son para Bolivia y Haití.
Un primer análisis de los resultados sugiere que la riqueza es uno de los factores determinantes en el éxito y la aplicación de políticas de respeto del medio ambiente, aunque en cada nivel de desarrollo algunos países obtiene resultados que exceden significativamente a sus similares.
Este es el caso de Costa Rica, que con sus políticas en este terreno se encuentra a mucha distancia de otro vecino centroamericano, Nicaragua, que ocupa el puesto 77.
Estados Unidos ocupa el puesto 39 en el ránking, muy por detrás de otros países industrializados como Reino Unido (14), y Japón (21).
Entre los países americanos, EEUU ocupa la undécima posición, y también queda por detrás de 22 de los miembros de la Unión Europea.
Según el análisis, aunque EEUU obtiene buenas puntuaciones en algunos indicadores, su mala actuación en cuanto a polución del aire y las emisiones de gases de efecto invernadero le llevan a descender muchas posiciones.
"Las mediciones sobre cambio climático del Índice, que colocan a EEUU, junto con India y China, cerca del final de la lista mundial, son una desgracia nacional", señaló Gus Speth, decano de la Escuela de estudios medioambientales de Yale.
El índice se centra fundamentalmente en dos objetivos: cómo se reducen los efectos medioambientales en la salud humana, y en cómo se promueve la vitalidad del ecosistema.
EFE

Investigan masiva muerte de lobos marinos en islas Galápagos

El Parque Nacional Galápagos (PNG) investiga la muerte de entre 20 y 25 lobos marinos en la isla Pinta, al norte del Archipiélago ecuatoriano de Galápagos, informaron fuentes de esa institución.
Víctor Carrión, coordinador general del PNG, dijo que el pasado 2 de enero, durante un sobrevuelo para controlar la población de cabras en la isla Pinta, se divisaron osamentas y cuerpos de lobos marinos en la playa.
Además, precisó que ya en tierra se comprobó que los cuerpos estaban en avanzado estado de descomposición junto a otros esqueletos de los mismos animales, en un total de entre 20 y 25.
Carrión añadió que aún estudian las causas de las muertes de esos animales y advirtió que, debido al alto estado de descomposición se ha complicado el análisis. Asimismo, recordó que la isla Pinta es muy remota y lejana a la isla Santa Cruz, sede del PNG, por lo que los estudios también demoran debido a la gran distancia a la que tienen que trasladarse los expertos.
El coordinador desvirtuó versiones de la prensa local que daban cuenta del hallazgo en La Pinta de cuarenta cadáveres de lobos marinos, algunos de ellos acuchillados. Y puntualizó, sin embargo, que el pasado 4 de enero se encontró en la isla Santa Cruz un lobo marino acuchillado, pero actualmente se encuentra en recuperación.
El archipiélago de Galápagos está situado a unos mil kilómetros de las costas continentales ecuatorianas y fue declarado en 1978 como Patrimonio Natural de la Humanidad por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco).
EFE

Científicos descartan que asteroide represente algún peligro para la Tierra

El asteroide "2007 TU24" pasará a más de medio millón de kilómetros de la Tierra y no existe ninguna posibilidad de que haga impacto contra nuestro planeta, afirmó hoy el Laboratorio de Propulsión a Chorro (JPL) de la Nasa.
El punto de mayor aproximación del asteroide, que tiene 150 metros de ancho por 610 de largo, ocurrirá el próximo martes a las 08.33 GMT y será observable por astrónomos aficionados con telescopios de baja potencia, informó JPL en un comunicado.
En ese momento el cuerpo cósmico estará a 537.000 kilómetros de la Tierra.
"Este será el encuentro más cercano de un asteroide de este tamaño o mayor hasta 2027", informó Don Yeomans, director de la Oficina para el Programa de Objetos Cercanos a la Tierra en JPL.
"En su punto más cercano estará a una distancia y media de la que existe entre la Tierra y la Luna. No tenemos por qué preocuparnos. Por el contrario, la Madre Naturaleza nos proporciona una excelente oportunidad de realizar observaciones científicas", indicó Yeomans.
EFE

23 ene. 2008

Historia de la computación y Conceptos Informáticos (V)

A continuación un universo para muchos desconocido ... la Programación


Decimos entonces que:
El tema de la Programación Orientada a Objetos (Object Oriented Programming O-O-P) sigue siendo para el que escribe un territorio inquietante, interesante y en gran medida desconocido, como parece ser también para la gran mayoría de los que estamos en el campo de la programación. Sin tratar de excluir a aquellos que han afrontado este desarrollo desde el punto de vista académico y formal (maestrías y doctorados) el tema se antoja difícil para los no iniciados. Con este breve artículo me dirigiré en particular a la gran base de programadores prácticos que andamos en búsqueda de mejores herramientas de desarrollo de programas, que faciliten el trabajo de nuestros usuarios y a la vez disminuyan la gran cantidad de considerandos que aparecen al empeñarnos en un proyecto de cómputo.
Como muchos de ustedes, me topé con el concepto de O-O-P como parte de esa búsqueda y al explorarlo apareció el gusanillo de la curiosidad. A lo largo de mi actividad como programador, y cuando se dio la necesidad, no tuve ningún problema en convertir mis habilidades de programación en FORTRAN de IBM 1130 al BASIC de la PDP, pues sólo era cuestión de aprender la sintaxis del lenguaje, ya que las estrategias de programación y los algoritmos eran iguales. Posteriormente, al manejar el PASCAL se requirió un importante esfuerzo en entender la filosofía de las estructuras, lo cual modificaba la manera de ver (conceptualizar) a los datos y a las partes constitutivas de un programa.
Posteriormente aparece el QuickBasic, que adopté inmediatamente por la familiaridad con el BASIC (ley del menor esfuerzo). Ofrecía estructuras de datos (tipos y registros complejos), además de estructuras de instrucciones en procedimientos y módulos; editor "inteligente" que revisa la sintaxis y ejecución de las instrucciones mientras se edita el programa, generación de ejecutable una vez terminado (.EXE), existencia de bibliotecas externas y enlace con módulos objeto generados en otro lenguaje. ¿Qué más podía yo pedir?
Pero la necesidad de estar en la ola de moda es más fuerte que el sentido común. Las aplicaciones en Windows siempre han despertado la envidia de los programadores, al hacer ver sus programas pálidos e insulsos por comparación. Solución: programar en Windows.
Originalmente programar en Windows representaba un largo y tedioso camino para dominar las complejas herramientas de desarrollo. Sólo recientemente han aparecido desarrolladores de aplicaciones para Windows que le permiten al programador pintar sus ventanas y realizar los enlaces entre los objetos con programación tradicional, evitando en gran medida involucrarse con los conceptos complicados de los objetos. Sin embargo no dejaron de inquietarme algunos conceptos marcados por O-O-P, según los cuales serán los pilares del futuro de la programación de componentes y de objetos distribuidos en redes, en donde la actual programación cliente/servidor pareciera por comparación el FORTRAN o el COBOL de ahora.
Pidiendo perdón de antemano a los puristas de las definiciones y conceptos de O-O-P, expondré el resultado de mis propias indagaciones sobre este campo, esperando que al paciente lector y posible programador le resulte menos complicado que a mí asimilar los elementos básicos de O-O-P.
Los principales conceptos que se manejan en la Programación Orientada a Objetos son: 1. encapsulado, 2. herencia y 3. Polimorfismo.
Según esto, la encapsulación es la creación de módulos autosuficientes que contienen los datos y las funciones que manipulan dichos datos. Se aplica la idea de la caja negra y un letrero de "prohibido mirar adentro". Los objetos se comunican entre sí intercambiando mensajes. De esta manera, para armar aplicaciones se utilizan los objetos cuyo funcionamiento está perfectamente definido a través de los mensajes que es capaz de recibir o mandar. Todo lo que un objeto puede hacer está representado por su interfase de mensajes. Para crear objetos, el programador puede recurrir a diversos lenguajes como el C++, el Smalltalk, el Visual Objects y otros. Si se desea solamente utilizar los objetos y enlazarlos en una aplicación por medio de la programación tradicional se puede recurrir al Visual Basic, al CA-Realizer, al Power Builder, etc.
El concepto de herencia me pareció sencillo de entender una vez que capté otro concepto de O-O-P: las clases. En O-O-P se acostumbra agrupar a los objetos en clases. Esto es muy común en la vida diaria. Todos nosotros tendemos a clasificar los objetos comunes por clases. Manejamos la clase mueble, la clase mascota, la clase alimento, etc. Obviamente en el campo de la programación esta clasificación es más estricta. ¿Cuál es el sentido de las clases? Fundamentalmente evitar definir los objetos desde cero y facilitar su rehuso. Si trabajamos con clases, al querer definir un nuevo objeto, partimos de alguna clase definida anteriormente, con lo que el objeto en cuestión hereda las características de los objetos de su clase. Imaginemos que creamos una clase "aves" y describimos las características de las aves (plumas, pico, nacen de huevo, etc.). Más adelante necesitamos una clase "pingüino". Como pertenece a "aves" no requerimos volver a declarar lo descrito sino marcamos que "pingüino" es una subclase de "aves" con lo que "pingüino" hereda todas sus características. A continuación sólo declaramos los detalles que determinan lo que distingue a "pingüino" de "aves". Asimismo podemos declarar "emperador" como una subclase de "pingüino", con lo que "emperador" heredará todas las características de las superclases "pingüino" y "aves" más las características que nosotros declaremos en particular para "emperador". En un programa (imaginario por supuesto) yo puedo utilizar estas clases (aves, pingüino y emperador). El hecho de colocar a un individuo en particular en estas clases es lo que se llama objeto y se dice que es una instancia de una clase. Así, si yo coloco a Fredy (un pingüino emperador) en mi programa, se dice que el objeto Fredy es una instancia de la clase emperador. Fredy aparecerá en mi programa con todas las características (herencia) de aves, de pingüino y de emperador.
Por otra parte, entender el concepto de Polimorfismo implicó un buen número de horas de indagación y búsqueda de ejemplos. Espero que éste resulte claro: supóngase que declaramos un objeto llamado Suma. Este objeto requiere dos parámetros (o datos) como mensaje para operar. En la programación tradicional tendríamos que definir el tipo de datos que le enviamos, como por ejemplo dos números enteros, dos números reales, etc. En O-O-P el tipo de dato se conoce hasta que se ejecuta el programa.