miércoles, 21 de junio de 2017

Quantum Physics And Thermodynamics: Explaining The Thermodynamic Laws At Atomic And Sub-Atomic Levels


Quantum thermodynamics is a contemporary branch of science that involves the integration of concepts and laws of quantum physics and thermodynamics. Basically, what it does is to explain the thermodynamic perspectives of various systems at quantum level. Doing so will help in the development of nanoscale electronic instruments and "atom-sized machines."

Thermodynamics, the science of heat and entropy, is ages old, and textbooks still teach the laws of thermodynamics that were originally proposed in the 19th and 20th centuries. However, in these two centuries, physics has made immense progress, and physicists have made commendable efforts in understanding and implicating the basic laws of physics into practical applications. These are prominently in the field of electronic devices and nanotechnology.

Now, the question that prevails is whether the same thermodynamic laws that are applicable for large-scale systems stand true for nanoparticles or a new set of laws needs to be framed. These issues were discussed at the Fifth Quantum Thermodynamics Conference that was recently held in Oxford, U.K.

Davide Castelvecchi recently has an article published in Nature regarding on the same topic. The article highlighted that the laws of thermodynamics are many times "paradoxical," especially the second law of thermodynamics. The second law states that the total entropy of isolated systems can only increase, and the increase in entropy or the production of disorder is irreversible in nature. This contradicts the laws of mechanics, according to which, "all processes can be reversed."

Some other physicists believe the statistical mechanics model of physics helps in calculating heat and entropy of systems. However, the values obtained largely depend on the information available with the researchers and the approach followed. Furthermore, it has also been proposed that sub-atomic quantum systems reach equilibrium, and the ability of the sub-atomic particles to remain in quantum state can be harnessed for doing mechanical work.

On the other hand, the third law of  thermodynamics states that the entropy of a system at absolute zero equals zero, i.e., it is almost impossible to cool down an object to absolute zero. The Nature Communications journal published another article this month that explained quantum mechanics in relation to the third law.

The article written by Lluis Masanes and Jonathan Oppenheim from the University College London proposed that the rate of heat extraction from an object are defined by the laws of quantum mechanics. The calculations made by the authors indicated that it will take infinity for an object to reach absolute zero temperature. The article thus substantiated the third law of thermodynamics at a quantum level.

It is evident that physicists are divided on their perceptions of quantum thermodynamics and its applicability. Though full of controversies, still the field is growing at an unprecedented rate, and the real time practical applications of the same will be realized soon.

Source

miércoles, 16 de noviembre de 2016

Viaje cuidando su bolsillo

El feriado llegó justo con el sueldo, pero recuerde que no debe gastarlo todo en cinco días.

Si decidió salir de viaje por el feriado no improvise, la aventura puede traer gastos que podría lamentar a corto plazo.

Antes de salir, defina cuánto dinero (efectivo y tarjetas) tiene disponible para el viaje y lleve un registro de lo que consuma. Tome en cuenta todas las actividades que le gustaría realizar y los costos de cada una.

Reserve el hospedaje antes de llegar para que no tenga que preguntar en cada hotel de la zona cuando llegue a su lugar de destino. De preferencia, elija un lugar céntrico para que no incurra en gastos extra de transporte. Si decide comer en lugares donde no hay carta, pregunte antes el precio para que sepa cuánto cuesta.

Lo más acertado


La planificación siempre será la mejor aliada del ahorro en las vacaciones. "La clave para planear bien las vacaciones es saber dónde se llega, cómo se llega, cuáles son las condiciones, el presupuesto y no lanzarse a la aventura", indica Juan Carlos Chanaba, experto en Finanzas Personales y profesor de la Universidad San Francisco de Quito (USFQ).

Esto aplica tanto para las personas que viajan en un vehículo propio como si se viaja en el trasporte público, pues los gastos se harán de igual forma tanto si se compra gasolina, como si se adquiere los boletos para el viaje.


De la misma forma con el hospedaje. "El problema es que en estas fechas, en todos los lugares turísticos suelen subir los precios del hospedaje, entretenimiento y comida. Si no reserva con anticipación el hotel, por ejemplo, uno termina pagando un precio superior al establecido por la alta demanda de habitaciones", explica.

Los menos acertado

Uno de los comportamientos menos acertados de quienes deciden viajar en las vacaciones es aceptar las promociones sin conocer los costos reales del producto que están adquiriendo, dice Chanaba.


"Algunas promociones llegan vía correo electrónico o por medio de una llamada telefónica", explica el experto. "Hay que cuidarse de esas ofertas porque suelen existir rubros que no se detallan en un inicio y, al final, el usuario termina pagando el doble de lo que se le dijo en un principio". (LGP)


Fuente

lunes, 28 de marzo de 2016

How Many Cores?

The optimal number of processor cores in chip designs is becoming less obvious, in part due to new design and architectural options that make it harder to draw clear comparisons, and in part because just throwing more cores at a problem does not guarantee better performance.

This is hardly a new problem, but it does have a sizable list of new permutations and variables—right-sized heterogeneous cores, better-written software, new memory types, and multiple packaging options. Moreover, while this may seem like just one more discussion about partitioning, it’s accompanied by a growing sense of urgency and concern. As transistor density continues to increase, it is becoming necessary to make some fundamental changes to designs to reduce leakage current and dynamic power density, as well as to reduce contention for memory and I/O.

One way to resolve these issues is to add more processing elements of all types, with much more attention to details about where they need to be placed and what they actually do. But which ones, what size, what clock frequency, where to put them, how to utilize them, and what impact they will have on an overall system design are increasingly difficult questions to answer.

The great debate
Parts of this discussion may sound familiar. Selecting the right number of processing elements has been a point of contention since Burroughs first introduced a dual-processor mainframe with asymmetric multiprocessing in 1961. That was followed by a variety of schemes to add more processing elements into computers, starting with symmetric multiprocessing in mainframes in the mid-1960s and leading up to computational and graphics accelerator chips in PCs in the 1990s. Then, beginning in 2006, Intel introduced dual-core processors as a way of minimizing heat in dense processor cores.

And there the benefits have largely stopped. Aside from a handful of embarrassingly parallel applications, such as image and video processing on PCs, and database- and search-related applications in data centers—not to mention compute-intensive applications such as hardware-accelerated verification in chip design—the number of cores in a CPU often has proved to be little more than an extension of the old MIPS/MHz/GHz marketing wars. More is considered better, even if they don’t actually affect performance. And in some cases, extra cores don’t do anything other than add to the cost of the design.

Chipmakers, software developers, research houses and various consortia have tried for decades to solve the parallelism problem. Enormous sums of money have been spent on developing new languages, parallel programming methodologies, and new curricula for computer science majors in universities. Had they been successful, the debate over the right number of cores would have evaporated. But most consumer applications still cannot take advantage of multiple computing cores.

This explains why large, complex SoCs have literally dozens of separate compute elements. That may seem counterintuitive, until you consider that some of these cores are accelerators for other cores, while others function as islands—they have little or no interaction with any other functions in a device. It often is simpler to separate out functions with their own highly-specific processors, particularly for IP subsystems, than to have those functions run on a central processor unit. And while that can lead to problems involving system-level coherence, it is a much easier way to design chips and far more power efficient.

“This all comes down to Amdahl’s Law,” said Arvind Raghuraman, staff engineer in the Embedded Systems Division at Mentor Graphics. “There is a practical limitation imposed on scaling of software. Various software programming paradigms impose restrictions, such as recomposing software into microkernels where you have a sequential problem. In most cases, this is a significant bottleneck.”

Even in the best of cases, adding more cores does not scale linearly in terms of power or performance. Running a process on two cores at slower clock speeds does not double the performance of running that process faster on one core. And for those applications that can be easily parallelized, there is still overhead at the parsing and recombinant stages.

“The reality, as everyone knows in SMP, is that adding four cores may only give you the real performance of two cores,” said Kurt Shuler, vice president of marketing at Arteris. “And a lot of stuff in the embedded world, particularly in phones, is single-threaded and event-driven, so it’s not really predictable.”

That has led to a number of different strategies to more effectively use processing elements. The biggest problem here is that not everything is a straight apples-to-apples comparison. For example, if software is co-developed with a heterogeneous multi-core chip it might require fewer cycles per compute function than commercially developed software that works across a comparable processor. Likewise, splitting processing between various elements may look more efficient on a spec sheet, but throughput to memory might be lower than a different configuration, a similar configuration in a different chip, or even one that uses a different manufacturing process.

“If you look at deep learning, the strategy has been to use lots of highly parallelizable cores,” said Chris Rowen, a Cadence fellow. “The current thinking is that you may want 1,000 cores, but it may be easier and faster to use 1 core and 1,000 multipliers. It’s like asking, ‘Which is smarter, 1 two-year-old or 1,000 cockroaches?’ Software is a key part of this. At the highest level of abstraction, you may be running Windows or Android or iOS, while at the lower levels you are using more real-time-oriented software that relies on an escalation principle. The lowest-level software can recognize its own limits and interrupt higher-level processes. So there are more processes, but not necessarily more processors.”

Pick a number
The general consensus among dozens of engineers and architects is that the maximum number of cores in a smart phone CPU is four to eight, and more often than not applications only use one core. The others are in reserve, and generally powered off.

“Smart phones have 20 to 30 cores,” said Emerson Hsiao, vice president of North American Operations at Andes Technology. “A lot of them are doing simple tasks like test control. We’re also seeing dedicated cores that are optimized for power or performance, and others that work together on a specific task. So for a camera, you might identify objects, not just an image. Those usually are customized processors, not general-purpose.”

But even here the math doesn’t always add up. In black-box IP subsystems, for example, no one other than the IP developer really knows how many processing elements are inside. Some of them don’t have connect with anything outside of that subsystem.

“It certainly makes it easier to be flexible with a subsystem if you can do it without much of an integration burden,” said Drew Wingard, CTO at Sonics. “From an encapsulation perspective, this is really important because you are not thinking about contention for a processing resource. You don’t have to deal with interrupts or worry if data processing is going on in the subsystem. That’s also good from an abstraction perspective because the compute resource is not available to the rest of the system.”

Other processing elements in this type of scheme communicate only sporadically, such as an accelerator that kicks into gear when a user calls up a particular process. Smartphones have been working with this approach for years, using a combination of DSPs, GPUs and MCUs optimized for specific operations such as listening to music, streaming videos, or playing games.

Those are, by definition, heterogeneous cores. But some are more heterogeneous than others, and not all of it depends on the core. Other important factors include where they are they are placed, how they are utilized, and in many cases who is using them. By matching cores very narrowly to certain tasks and by sizing them appropriately, particularly with software written for those tasks and cores, significant gains in efficiency and performance can be achieved.

“Twelve years ago we began developing our own cryptographic microprocessor using our own custom instruction set,” said Pat Rugg, vice president of sales and marketing at the Athena Group. “They do multiplication, addition and subtraction, but they also can do AES and random number generation. They’re also more than 10 times more efficient than using individual cores.”

This is the strategy behind heterogeneous multicore CPUs, as well. ARM‘s big.LITTLE architecture is one example. Intel likewise said it plans to offer its own twist on that with FPGAs connected to multi-core processors using high-speed bridges.

“The challenge here is that it’s not always easy to determine which core should be used,” said Mentor’s Raghuraman. “It’s a compromise on the design side. It’s not always easy to decide when to shift from the big cluster down to the little cluster, so it could fail on latency requirements.”

In business settings, such as cloud-based servers, the pendulum frequently swings in the opposite direction. There are many options for using multiple cores simultaneously for a parallelized process, which is where homogeneous multi-core is most useful, or where heterogeneous multi-core architectures come into play. Depending upon how they are used, and whether data needs to be consistent, they can either be cache-coherent or function independently.

Kalray, a processor company based outside of Paris, is developing chips with up to 288 64-bit cores for networking and storage inside of data centers, as well as self-driving cars. “Our focus is embarrassingly parallel applications where you don’t need to share data from one processor to another,” said Jean-Pierre Demange, the company’s vice president of sales and marketing. “There are many processes that have nothing to do with each other. The real key here is that you need throughput.”

Software
One of the key factors in deciding how many cores to use and how to use them is software, and this is one area where a discussion about cores really gets confusing. Commercially developed software may be able to run across multiple cores, but it usually isn’t as efficient as software developed in conjunction with a processor with fewer cores, regardless of whether those cores are heterogeneous or homogeneous.

“Software is what defines the upper limit for cores,” said Tom De Schutter, director of product marketing for virtual prototyping at Synopsys. “So with embedded vision, you can have massive parallelism. GPUs and FPGAs need a different level of parallelism. This is why we’re seeing the return of dedicated processors, which is a trend over the last few years. For a long time we saw the demise of IP vendors selling processors. Now we’re seeing a reverse trend with new applications reviving application-specific processors.”

De Schutter pointed to two trends in software for multiple cores. One involves more standardization of software for popular processors, such as what the Linaro consortium is doing with ARM cores. The second is much more specialization, including dedicated algorithms to minimize power consumption. “These are very specific software stacks, and more software developers are becoming highly specialized.”

Source

domingo, 29 de junio de 2014

Turismo para peluches por 15 euros

Un exclusivo servicio de una agencia de viajes japonesa ofrece viajes personalizados para peluches. Está siendo un éxito.

¿Hay algo mejor que mandar a tu peluche favorito a una excursión por la ciudad y que luego te cuente lo que ha visto? O mejor aún: ¿que te traiga un vídeo cuando llegue a casa con todo lo que ha visto?
Parece de broma, pero es real. Un exclusivo servicio de una agencia de viajes japonesa ofrece turismo para peluches. Por unos 15 euros, los dueños de los peluches –en su mayoría personas con dificultades de movilidad o enfermos mentales- brindan una original experiencia a sus muñecos.
La actividad, aunque suene súper rara, tiene su sentido… al menos para la agencia, que asegura que los peluches viajeros llevan muchísima alegría a sus dueños, ya que suelen ser muñecos de la infancia muy queridos. Tan queridos que forman parte ya de la familia de sus dueños.


sábado, 7 de junio de 2014

5 increíbles propiedades de la luz solar que no conoces

Nuestra conexión biológica y dependencia al sol es tan profunda, que la misma variación en el color de la oscura piel humana africana saturada de melanina, a la relativamente clara piel depigmentada de melanina de la raza caucásica, es un subproducto de la descendencia de nuestro último ancestro común de África (según lo determinado por el ADN mitocondrial) que migraron hacia latitudes más altas de escasa luz solar, que se inició hace aproximadamente 60.000 años.

Con el fin de compensar la menor disponibilidad de la luz del sol, el cuerpo se ajustó rápidamente, requiriendo esencialmente la eliminación del “protector solar” constituido por la melanina natural de la piel, que interfiere con la producción de vitamina D; la vitamina D, por supuesto, está implicada en la regulación de más de 2.000 genes y, por lo tanto, es más como una hormona sin la cual toda nuestra infraestructura genética se desestabiliza.

Si bien los beneficios de la vitamina D están bien documentados (GreenMedInfo.com ha identificado más de 200 condiciones de salud que pueden beneficiarse de la optimización de los niveles de vitamina D: página de Beneficios de la Vitamina D en la Salud, y la Wiki de Vitamina D de Henry Lahore tiene mucho más), las propiedades terapéuticas de la luz solar están recién siendo explorados con mayor profundidad por la comunidad científica.

A continuación se detallan cinco propiedades notables de la exposición al sol: 

1 - La luz solar tiene la propiedad de eliminar el dolor (analgésico):  Un estudio de 2005 publicado en la revista Medicina Psicosomática titulado, "El efecto de la luz solar en el uso de medicación analgésica en el postoperatorio: un estudio prospectivo de los pacientes sometidos a cirugía de columna", analizó a pacientes que permanecieron en el lado asoleado de la unidad del hospital y que fueron expuestos a un 46% de mayor intensidad de luz solar en promedio.

Los pacientes expuestos a un aumento de la intensidad de la luz solar experimentaron menos estrés percibible; un poco menos, el 22% requirieron menos medicación analgésica por hora y obtuvieron una reducción del 21% en los costos de medicamentos para el dolor. 

2 - La luz del sol quema la grasa: Un estudio de 2011 publicado en la Revista de Investigación Dermatológica reveló un hecho notable del metabolismo: La exposición de la piel humana a la luz UV incide en el aumento del metabolismo de la grasa subcutánea . Mientras que la grasa subcutánea, a diferencia de la grasa visceral, no se considera un factor de riesgo para las enfermedades cardiovasculares, se sabe que la deficiencia de uno de los más conocidos subproductos beneficiosos de la luz del sol, la vitamina D, se asocia con una mayor grasa visceral.

Asimismo, existe un sólido cuerpo de investigación que muestra que la deficiencia de vitamina D está vinculada a la obesidad, pudiendo encontrarse 9 de tales estudios en nuestra página de investigación sobre la obesidad.

Uno de ellos, titulado "Asociación de los niveles plasmáticos de la vitamina D con la adiposidad en los hispanos y africanos", publicado en la revista Investigación contra el Cáncer en 2005, encontró que los niveles de vitamina D se asoció inversamente con la adiposidad en los hispanos y los afroamericanos, incluyendo la obesidad abdominal.  ¿El punto? La exposición a la radiación UVB, que es más abundante a dos horas por cada lado del mediodía solar y responsable de la producción de vitamina D, puede ser una estrategia esencial en la quema de grasa, una forma natural.

3 - La luz del sol a través de los ciclos solares puede regular directamente la esperanza de vida humana:  En un artículo publicado en 2010 en la revista Hipótesis Médicas titulado, "El efecto de los ciclos solares en la vida humana en los 50 Estados Unidos: la variación en la luz afecta el genoma humano", los investigadores revisan la posibilidad de que los ciclos solares afectan directamente el genoma humano. Según los investigadores:

En el referido estudio se reporta que las personas que fueron concebidas e igualmente nacieron durante los picos (Máximo aproximadamente de 3 años) de ciclos solares de aproximadamente 11 años vivían un promedio de 1,7 años menos que los concebidos e igualmente nacidos durante los no-picos (Mínimo aproximadamente de 8 años).  El aumento de la energía durante el máximo solar, aunque es relativamente un pequeño aumento del 0,1% respecto al mínimo, al parecer modifica el genoma / epigenoma humano y genera cambios que predisponen a diversas enfermedades, acortando de esta manera la vida útil.  Es probable que la energía aumenta una beneficiosa variedad en el genoma que pueden mejorar la capacidad de adaptación en un entorno cambiante.

La exposición al sol, por lo tanto, puede afectar directamente la duración de nuestra vida, e incluso puede acelerar los cambios genéticos que pueden conferir una ventaja en la supervivencia.

4 - La exposición al sol durante el día mejora el estado de alerta en la noche: Un estudio de 2012 publicado en la revista Neurociencia Conductual, titulado "Efectos de la exposición a la luz temprana del día sobre el rendimiento de la tarde-noche, la somnolencia subjetiva, y la secreción hormonal", encontró que las personas se sentían significativamente más alertas al comienzo de la noche después de haber sido expuestas a la luz del día durante 6 horas, en tanto que se tornaron más somnolientas al final de la noche después de la exposición a la luz artificial. 

5 - La luz del sol pueden convertirse en energía metabólica: Si una nueva hipótesis publicada en 2008 en la Revista de Medicina Alternativa y Complementaria es correcta, un viejo supuesto de que los animales son incapaces de utilizar energía de la luz directa está ahora en entredicho.  En otras palabras, nuestra piel puede contener el equivalente a "paneles solares" de melanina, y es posible que "ingiera" energía, como lo hacen las plantas, directamente del sol. 

Este artículo fue publicado originalmente en GreenMedInfo

 

Fuente

jueves, 13 de febrero de 2014

Estudiantes cubanos pasarán un semestre en Miami Dade College

Juan O. Tamayo

Quince jóvenes cubanos, desde raperos a disidentes, comenzarán clases en el Miami Dade College el martes en un programa de becas sin precedentes para un país donde las universidades expulsan regularmente a los activistas de la oposición.

Con algunos de los estudiantes vistiendo ya los suéteres color azul cielo de MDC, los 15 jóvenes fueron presentados en una ceremonia el lunes a los profesores que los verán durante un programa de seis meses, que incluye clases de inglés, computación, negocios y estudios sociales.

Los estudiantes no hicieron declaraciones a los medios noticiosos, y una persona involucrada con el programa dijo que los estudiantes estaban muy nerviosos, especialmente aquellos que nunca antes habían salido del país.

Las universidades cubanas, todas controladas por el régimen comunista, con regularidad expulsan o les niegan la entrada a activistas en pro de la democracia, y a veces incluso a sus hijos, bajo la conocida consigna de “la universidad es para los revolucionarios”.

Apenas el mes pasado, Miguel Molina reportó que fue expulsado de su segundo año de estudios médicos en la ciudad oriental de Santiago de Cuba, debido a sus actividades en la disidente Unión Patriótica Cubana.

El decano de MDC Rolando Montoya, celebró las becas “We are One People“ (Somos un Solo Pueblo), como las primeras en su clase desde 1959. Otros cubanos han estudiado en universidades de Estados Unidos pero como individuos y usualmente con la aprobación directa o indirecta del gobierno cubano.

Se espera que los 15 estudiantes regresen a su país luego de terminado el programa, para enseñar lo que aprendieron en Miami a “otros que no tienen las mismas oportunidades”, dijo Juan Antonio Blanco, director del Centro de Iniciativas para Latinoamérica y el Caribe.

Una organización sin fines de lucro en Miami, la Fundación para los Derechos Humanos en Cuba, pagará el costo estimado entre $12,000 y $15,000 de transporte, hospedaje y comida para cada estudiante. La fundación ganó una subvención de $3.4 millones del gobierno de Estados Unidos en el 2011 para ayudar a grupos de la sociedad civil en Cuba, y recibe más de $600,000 de parte de donantes privados cada año.

Los cubanos que llegaron este fin de semana, tienen edades que van desde los 18 a los 37 años, son de razas diversas y más de la mitad son mujeres, dijeron funcionarios de MDC. No tenían una lista completa de los nombres, pero si sabían algunos.

Entre ellos, hay tres a quienes se les conoce ampliamente por criticar el gobierno: Raudal Collazo, del grupo rapero Escuadrón Patriota; el artista de graffiti Danilo Maldonado, conocido como El Sexto; y el bloguero Henry Constantin, quien fue expulsado de la Universidad de Oriente en el 2006 y de la Universidad Marta Abreu en Villa Clara en el 2008.

Cuatro son hijos de disidentes, incluidos Lienys Moya Soler, la hija de la líder de las Damas de Blanco Berta Soler y del ex prisionero político Ángel Moya; y Saylí Navarro, activista de las Damas de Blanco e hija del ex prisionero político Félix Navarro. Ella fue expulsada de la Escuela de Derecho de Matanzas en el 2010.

También dentro del grupo se encuentran las abogadas independientes Laritza Divesent, quien le explica sus derechos a los cubanos aunque no puede ejercer el derecho pues no es miembro de un bufete aprobado por el gobierno, y Yaremis Florez.

Los cubanos estudiarán inglés como segunda lengua hasta marzo y entonces seguirán con las otras clases —cursos ofrecidos regularmente por MDC pero rediseñados para cumplir con requisitos específicos.

MDC, el college más grande de la nación con 175,000 estudiantes en ocho campuses, dijo que les da la bienvenida a los cubanos “igual como lo hace con cientos de estudiantes que recibe cada año desde todas partes del globo, especialmente del Caribe y Latinoamérica”.

Blanco, un ex analista para el Partido Comunista de Cuba, dijo que el college había estado trabajando sin publicidad para lograr “este sueño” durante meses.

Una media decena de descendientes de los gobernantes cubanos Raúl y Fidel Castro han estudiado en el exterior, muchos de ellos en España y con becas del gobierno español, de acuerdo al blog Cuba al Descubierto.

Pero es poco probable que el gobierno apruebe el programa de becas en Miami.

“El mensaje enviado es tentador y altamente subversivo: No solo perteneciendo a las instituciones oficiales se puede salir a estudiar al extranjero. Y regresar”, escribió el bloguero Emilio Ichikawa este fin de semana.

El gobierno del presidente Barack Obama ofreció becas a los estudiantes cubanos que quisieran inscribirse en universidades de Estados Unidos en el 2008. Cerca de 750 se postularon en la misión diplomática de La Habana, la cual seleccionó a 30, dijo el geógrafo de Miami Eudel Cepero. Pero el gobierno cubano les negó el permiso para viajar al exterior y el programa fracasó.

Cepero hizo notar que miles de estudiantes de universidades estadounidenses han viajado a Cuba para inscribirse en clases allá, en algunos casos, guiados por simpatizantes del régimen de ese país.

Más de 500,000 estudiantes de cerca de 200 países se inscriben cada año en las universidades y colleges de Estados Unidos. Casi el 60 por ciento viene de Asia, el 14 por ciento viene de Europa y el 10 por ciento viene de Latinoamérica, escribió Cepero en una columna de Internet.



Fuente

sábado, 28 de diciembre de 2013

La expansión de China llega a la Luna

El poderío chino se extiende. Luego de ocho días de llegar a la Luna con un robot y de constituirse como el segundo país en hacer esto (el primero fue la ex URSS), ahora piensa en convertirse en el principal minero lunar y extraer helio 3.Los científicos no descartan que ese material sea aplicado en el campo de la fusión nuclear. Y pueda aprovecharse para dotar de energía mundial por unos 10 000 años.

 

Para ello primero preparan el envío de su primer astronauta. Será en el 2020. China espera que para entonces esté montado su base espacial que orbite la Tierra.

 

Arturo Carvajal, astrónomo y docente de la Universidad San Francisco de Quito, menciona que China ha invertido en ciencia y tecnología con el propósito de convertirse en una de las potencias pioneras en la exploración del satélite en el universo.

 

Con esto, el país asiático logró el primer alunizaje controlado de una nave terrestre en 40 años.

 

Desde ahora aquella nación es considerada como la segunda del mundo en colocar un robot explorador en la Luna, tras la Unión Soviética, que desplegó el Lunojod 1, en noviembre de 1970 y el Lunojod 2, en junio de 1973.

 

En cambio, Estados Unidos, otra potencia en esta área, no ha enviada robot, sino una misión tripulada, el Apolo 11 (1969).

 

Carvajal considera que China dentro de tres años preparará una nueva misión en la que enviará una sonda para extraer material de la superficie lunar y traerlo a la Tierra para que sea estudiado.

 

"Este tipo de misiones son costosas. Sin embrago, la China está realizando este proceso con el objetivo de preparar el envío de astronautas al satélite", dice el astrónomo.

 

El vehículo robótico de seis ruedas bajó por una rampa de la sonda espacial Chang' e-3 hasta una planicie volcánica conocida como Bahía de los Arcoíris en la Luna. Se trata del robot Yutu (Conejo de Jade), primer vehículo espacial creado por la China para recopilar datos sobre el suelo y corteza lunar.

 

Este equipo alunizó el pasado 14 de diciembre después de un trayecto de 12 días desde el momento en que despegó de la Tierra. Y el 15 de este mismo mes liberó de su plataforma al Conejo de Jade.

 

La misión escogió esta planicie porque presenta intensa exposición al Sol que permite el funcionamiento de los paneles y del equipo.

 

El Yutu tiene al menos cuatro instrumentos científicos, un radar que estudiará el subsuelo; seis cámaras que registrarán imágenes en 3D de alta resolución y transmitirán videos a la Tierra; paneles solares y un brazo mecánico.

 

El robot está diseñado para funcionar durante tres meses en los que explorará un área de 3 kilómetros cuadrados viajando una distancia máxima de 10 kilómetros.

 

Juan Villacís, ingeniero electrónico del Ecuador, sostiene que este equipo al tener un sistema de control térmico combinado permite mantener su temperatura estable.

 

Esto se produce porque está cubierto por múltiples capas de aislamiento para su protección en caso de que el calentamiento solar exceda y se exponga al vacío del espacio durante la noche.

 

El peso del robot chino es importante ya que al tener 140 kilos y 150 centímetros de altura, puede desplazarse a 200 metros.

 

Las cámaras permiten tomar fotografías fijas y videos de todo el terreno lunar.

 

En un solo día ya se han transmitido alrededor de 4 000 imágenes.

 

Previo al envío del Chang' e-3 se ejecutaron dos intentos más durante el 2007 y el 2010. Se prevé que el próximo 24 de diciembre el robot reanude sus operaciones que estaban paradas.

 

Datos técnicos

 

 

La velocidad del trayecto fue de 1,7 kilómetros por segundo.

 

La misión comenzó el pasado 1 de diciembre cuando el cohete diseñado por la industria espacial china despegó de Xichang, en el sur del país.

 

Su nombre fue elegido a través de una votación en Internet, en la cual participaron 3,4 millones de personas.

 

Tanto la sonda que alunizó como el robot tienen paneles solares para obtener energía.

 

El nombre Yutu (Conejo de Jade) deriva de un antiguo mito chino sobre un conejo que vivía en la luna, y era la mascota de la diosa lunar Ghang´e.

 

Fuente