miércoles, 30 de mayo de 2012

Sorprendente Sistema Solar

En 1984 se produjo el descubrimiento de una enana marrón -se llama así a una estrella "fallida" que contiene los mismos elementos que cualquier sol, pero no tiene fusión termonuclear- en la región exterior del Sistema Solar por parte del telescopio IRAS. Lo que podría confirmar que en un su nacimiento tendría las características de un Sistema Binario, es decir con dos soles, tal como George Lucas lo describió en la "Guerra de las Galaxias" siete años antes.

Este acontecimiento dio paso a especulaciones, siempre existentes en todo lo relacionado con el Universo, y a aplicar el concepto cuántico de entrelazamiento, propiedad predicha en 1935 por Einstein, Podolsky y Rosen, e introducida en ese mismo año por Erwin Schrödinger para describir un fenómeno de mecánica cuántica donde existen variables que definen un sistema que pueden ser conocidas, pero que la teoría no contempla. Lo que Einstein también denominaba variables ocultas, y que ayuda a explicar el sistema probabilístico y aleatoria de la cuántica, muy aplicable en este caso porque realmente es difícil de situar la enana marrón en nuestro Sistema Solar. Hoy "sabemos" que la cuántica es completa, lo que significa que un objeto similar alejado afecta a otro -demostrado recientemente en laboratorio- lo que supone que el Sistema Solar no actúa como se creía, que tenemos que revisar muchos conceptos existentes hasta ahora.

Ciertamente he simplificado el tema para que fuese más comprensible, lo que sí es indiscutible es que permitió -con la tecnología disponible- estudiar con una visión más amplia el Sistema Solar, e incluso el Universo y avanzar hasta el punto de que ciertos descubrimientos conducen a cuestionáramos muchos de las teorías que pensábamos inamovibles. Sabemos que el Universo continúa acelerándose y más de lo que se preveía, la materia oscura -ocupa el 80%- está cuestionada tras los estudios realizados por astrofísicos de la Universidad de Concepción en los observatorios de Chile de La Silla (La Serena) y Las Campanas ( Atacama), en la presentación de los resultados Christian Moni-Bidin director del equipo dijo "Los resultados coinciden perfectamente con la masa de las estrellas, el gas y el polvo, es decir, lo que se llama la masa "visible". Sin embargo, en el volumen considerado, esperábamos que hubiese una gran cantidad de materia oscura, pero en cambio, no la hemos detectado". 

Cómo no podía ser menos el Sistema Solar nos deparó sorpresas, Plutón ya no se considera un planeta, incluso antes de él nos encontramos con el Cinturón de Kuiper, en el que se encuentra conjuntamente con él más de 800 objetos - llamados KBO Kuiper Belt  Objects (Objetos del Cinturón de Kuiper)- destacando Eris, Makemake, Haumea  descubiertos en 2005. Eris más grande que Plutón se dice que es el décimo planeta, por eso también se le llama Planeta X. 



Más, el Sistema Solar puede haberse desprendido de un planeta gigante y haber salvado a la Tierra, de acuerdo a un artículo por David Nesvorny publicado en "The Astrophysical Journal Letters" en noviembre de 2011 donde dice que “Tenemos todo tipo de pistas sobre la evolución temprana del Sistema Solar… Proceden del análisis de la población trans-Neptuniana de pequeños cuerpos conocida en el Cinturón de Kuiper, y del registro de cráteres lunares”, Nesvorny realizó millones de simulaciones informáticas para encontrar la respuesta a la inestabilidad en las órbitas de los planetas gigantes gaseosos -en la edad temprana de nuestro Sistema Solar unos 6.000 años desde que empezó la expansión del Universo- que afectarían a las órbitas de los planetas sólidos cómo la Tierra, que habría colisionado con sus vecinos, Marte o Venus. Para explicar este problema los astrónomos presentaron una alternativa en la que la órbita de Júpiter se modificó y se alejó de los dos gigantes Urano y Neptuno, lo que se conoce cómo el "salto" de Júpiter - al aplicar la teoría de la perturbación gravitatoria de Le Verrier- lo que hubiese significado la expulsión de alguno de ellos del Sistema Solar, lo que no sucedió,. "Había algo claramente incorrecto", afirma Nesvorny, la explicación es que tendría que haber otro planeta, el cuál  habría sido expulsado del Sistema Solar. "Es una explicación que parece bastante concebible debido al descubrimiento reciente de una gran cantidad de planetas que flotan libremente en el espacio interestelar, sin orbitar ninguna estrella, lo que indica que estas eyecciones de planetas podían ser comunes", afirma Nesvorny. Una nuevo trabajo publicado en arXiv.org en abril de 2012 sugiere que un quinto planeta gigante -los otros cuatro son Júpiter, Saturno, Urano y Neptuno- fue expulsado de nuestro sistema hace unos 4.000 millones de años, conformando lo afirmado por Nesvorny, que en mayo en “Southwest Research Institute®·en la búsqueda de exoplanetas, confirma la existencia de un planeta oculto en la estrella KOI-872 similar al Sol, que presentaba variaciones similares a las descritas anteriormente. 

Hasta septiembre 2011, la enana marrón era considerada una excepcionalidad y el planeta "Tatooine" de George Lucas era sólo una ficción, en ese mes se detectó Kepler-16b el primer exoplaneta que órbita alrededor de dos estrellas, posteriormente el telescopio Kepler ha identificado 2.165 sistemas de este tipo en las más de 160.000 que ha observado en nuestra Galaxia. Estos sistemas, en contra de lo que se pensaba, eran muy frecuentes en los inicios del Universo -equipo del Dr. Paul Clark  de la Universidad de Heidelberg en "Science Express"-, normalmente van acompañados de un objeto compacto, o de un agujero negro, giran alrededor de un centro de gravedad común. ¿Importancia?, que puede explicar el llamado "Acantilado de Kuiper", e indicar la presencia de otro gran cuerpo planetario girando alrededor del Sol. Cuestionando teorías de la formación, crecimiento y estado "actual" del Universo, y en mi opinión cómo una de las cuatro fuerzas, la gravitacional, ha influido, influye y puede influir, y cómo es lógico la forma en que afecta a nuestra galaxia, sistema solar, y por supuesto al futuro de la Tierra.

jueves, 24 de mayo de 2012

Comercio y PYME ante la crisis

El comercio y las PYMES son básicas para el desarrollo y la generación de empleo, cualquier acción encaminada a mejorarlas permitirán una salida de la crisis y la disminución del desempleo. Sabemos que el 85% del empleo lo generan las PYMES, aunque un estudio de AXA afirma que solo el 8% prevé incrementar su plantilla, panorama poco halagüeño para nuestro comercio y PYMES, que lo están sufriendo con cierres no deseados. Es cierto que el dinero no fluye, por ello hay que utilizar todos los medios al alcance para sobrevivir, siendo las TIC (Tecnologías de la Información y las Comunicaciones) imprescindibles en esta tarea. Una solución adecuada para unos, no tiene que serlo para otros. Hay que preguntarse si la solución es la correcta para la empresa, y para la comunicación con sus clientes, tiene que ser una solución TIC que aporte valor añadido a la empresa, a sus canales de venta, y producir a medio plazo ventajas competitivas que generen ingresos sostenibles.

 La crisis conlleva mantener la fidelidad del cliente, hay que conocerlo, ser conscientes de la incorporación de los jóvenes que saben buscar lo que les conviene, encontrarlo y adquirirlo allí donde les sea más fácil. Los clientes son los que deciden cuando comprar, haciéndolo cuando lo necesitan o piensan que lo necesitan, de ahí la importancia de la iteración congruente con ellos. Hay que utilizar la Gestión del Conocimiento para anticiparse a sus necesidades, no son suficientes los sistemas de Atención al Cliente, ni fidelización mediante tarjetas, tampoco las encuestas, incluso las posteriores al servicio. ¿Se puede pensar que cuando llega a casa cansado o no, acaba de comer, se dispone a ver el programa favorito o … tantas otras cosa que puede hacer, va prestar atención a las preguntas y evaluarlas correctamente?. En mi opinión en la mayoría de los casos no, al contrario lo enojan o al menos le molestan. Cierto que hay que dialogar con el cliente, conocer lo que quiere, pero sin molestarlo, para ello son necesarias las TIC, y más conociendo que cada día hay más personas conectados vía tablet, smartphone, portátil… a la red, con sus amigos, conocidos, a través de redes sociales. Forrester publicó que los consumidores que manifiestan sus quejas a empresas en las redes sociales superan el 20%, no hay que despreciar este hecho.

La facilidad del comercio y PYME para adaptarse a los cambios, y el contacto cercano al cliente, se han visto contrarrestada por las grandes empresa al utilizar TIC's que le facilitan acceso a datos "inteligentes" de clientes, que al comercio y a las PYMES les estaban vedados por su alto costo, hoy tienen acceso por precios asequibles. Además  es preciso utilizar las redes sociales -aunque también sirven para recibir las criticas de los clientes- como medio de contacto y marketing, las grandes empresas lo hacen, ¿por qué no utilizarlas?, su uso permitirá al comercio y PYMES profundizar en el conocimiento del cliente, tal como hacen las grandes empresas, y así darle lo que quiere, cuando lo quiere, cómo lo quiere, y disponible en el momento que lo necesita.

 Estos canales, deben de acompañarse de medios que atraigan a todos, y en entre ellos destaca la diversificación de los medios de pago que satisfagan cada necesidad específica. Las TIC van a poner en el mercado nuevas modalidades de pago con un objeto muy familiar a todos, el teléfono móvil, el comercio y las PYMES deben ser pioneras. Visa anuncia el pago por smartphones con tecnología Near Field Communication (NFC), comunicación inalámbrica de corto alcance, con su sistema seguro payWave, lo que llamo "dinero electrónico". El sistema de pago PayPal no se queda de manos cruzadas, da un paso más y posibilita el pago "in situ" también con teléfonos y tecnología NFC, y con valor añadido -en colaboración con 3M- de que pegando una película fina en el escaparate lo convierten en una pantalla holográfica, que conjuntamente con un ordenador y un proyector lo transforma en una tienda virtual, permitiendo ver todos los productos e incluso comprarlos. Sistema que según las previsiones estará disponible a finales de 2012 en el Reino Unido, y en los meses siguientes en el resto del mundo.

Los mensajes que se trasmitan al cliente tienen que ser interesantes, hacer "marketing de contenidos", especialmente contemplar otras formas de contactar, y ofrecer nuevos canales: tradicional, digital, y "holográfico". Se puede comprar, visualizar, con plazos de entrega rápidos, y ahora con forma de pago adecuada, todo con un único "device". Cisco System publica que en 2016 existirán en el mundo más de 10.000 millones de smartphones y tablets, PYMES y pequeños comercios deben tenerlo en cuenta en sus proyectos. Tiene que reaccionar, un informe de DGIPYME y Fundeteec dice que el 64% de las PYMES y el 25% de las microempresas disponen sólo de página web corporativa, registrando un pequeño crecimiento del 3% y el 5%. Para reafirmar esa necesidad la empresa Arsys confirma que los nuevos canales de venta on-line de las PYMES españolas aumentaron un 20,4% en 2011, en Internet han encontrado un aliado para impulsar su ventas ante la crisis, lo que refuerza la idea de utilizar nuevos canales de contacto con el consumidor. Hay que dar el salto al siglo XXI.

 Con todo ello la PYME podrá ampliar su horario a 24x7 -todo el día todos los días-, y competir con las grandes superficies, que con la situación social por la que estamos pasando es de gran importancia. Las empresas, en especial PYMES y pequeños comercios, tienen que pensar que el camino para salir de la crisis es vender más, para ello tienen que captar más clientes y no perder los que tiene.

sábado, 19 de mayo de 2012

Política energética real y sostenible


Las eléctricas no están satisfechas y quieren volver a incrementar el recibo de la luz, la subida del mes de abril no ha sido suficiente. El Gobierno, por medio del Ministro de Industria, Energía y Turismo, ha dado a entender que el Plan de Renovables 2012-20 no es viable, y reiteró que de aplicarse lo que se pagó por la instalación de la nueva potencia renovable a los proyectos con prima concedidos entre 2005 y 2011, la subvención alcanzaría los 70.000 euros, cantidad que todas sabemos que España no puede asumir en estos momentos, y menos repercutir en el ciudadano.

Un componente importante del coste energético es el llamado "peaje", que se implantó para mantener las centrales térmicas a punto aunque no se estén usando, las cuáles actúan cómo respaldo de los momentos en que las renovables fluctúan su aportación a la red eléctrica o no están funcionando. Tenemos que añadir la deuda que existe debido a las subvenciones que es de 23.312 millones de euros –más del doble de los recortes de educación y sanidad-, ambas tienen un impacto aproximado del 47% en el costo de la electricidad que consumimos. En el gráfico publicado por al CNE (Comisión Nacional de Energía) se puede ver la diferencia con otros países.
Este es el gran problema de la energía que producimos, y que hay que tener presente para no cometer el mismo error en el futuro. Necesitamos un plan energético a precios competitivos con nuestro entorno, acorde con las necesidades, contemplando el crecimiento de la demanda, la dependencia que padecemos, y nuestras posibilidades reales de producción. Reitero que es esencial para salir de la crisis, es una de las acciones más importantes del Gobierno para enderezar la economía, consolidando el futuro para que nuestras empresas tengan una energía competitiva que ayude a generar beneficios, y produzca empleo sostenible que acabe con la precariedad actual. No esperemos para que explote cómo el sistema financiero.

Ninguna fuente de energía debe ser despreciable, desde la hidráulica -utilizándola también para otros fines- pasando por la nuclear, eólica, solar, biomasa, sin olvidar el hidrogeno y la producción de biocombustibles que permitirían una reactivación de nuestra agricultura que recuperaría las tierras ahora estériles, lo que redundará en la mejora del medio ambiente, paliándose simultáneamente el desvío hacia la producción de biodiesel del girasol, maíz, trigo, y otros cereales que se están cosechando en países del tercer mundo. Debemos ser conscientes que parte del incremento de los precios de los productos agrícolas, por su escasez, es debido a que las tierras de cultivo del esos países se han dedicado a producir productos para biocombustibles.

El gobierno debe escuchar a los científicos y técnicos, los nuevos estudios ponen en cuarentena muchos "dogmas" que durante los últimos años había sobre las fuentes energéticas, por ejemplo la energía eólica produce turbulencias, y un estudio realizado por el Departamento de Ciencias Atmosféricas y Ambientales de la Universidad de Albany (USA) desde el 2003 hasta 2011 -en una región de Texas en la que se encuentran cuatro de los mayores parque eólicos del mundo- ha comprobado que la tierra se calienta más en las áreas adyacentes a los parques eólicos, incluyendo cambios en el clima local, resultados publicados en "Nature Climate Change", donde los autores, cautos, advierten que no se puede extrapolar a otras latitudes. Los embalses pueden ser provechosos e incluso necesarios en algunos lugares, estudios referidos a otras fuentes de energía también cuestionan lo que hasta ahora eran "verdades", seamos prudentes y recordemos lo escrito por Jorge Santayana "Aquellos que no recuerdan el pasado, están condenados a repetirlo" en su libro "La razón en el sentido común":

miércoles, 16 de mayo de 2012

Uso de la energía nuclear en la salud


Lo nuclear nació con el "pecado original" del lanzamiento de dos bombas atómicas sobre Hiroshima y Nagasaki los días 6 y 9 de agosto de 1945, donde murieron 300.000 personas. Poco se ha hablado que desde el inicio lo prioritario para la ciencia fue ver las grandes posibilidades que se abrían con el descubrimiento de esta forma de energía, y las ventajas para la humanidad.



La utilización de radiaciones en medicina empezó hace un siglo, y ha evolucionado con los avances científicos de la Física, de la Oncología y de los ordenadores, mejorando tanto los equipos como la precisión, calidad e indicación de los tratamientos. La radioterapia conjuntamente con la cirugía y la quimioterapia es uno de los tres pilares del tratamiento del cáncer. El gran avance lo produjo el físico Robert R. Wilson que en 1946 sugirió que los protones podrían usarse de modo efectivo contra el cáncer, los primeros tratamientos se realizaron en el laboratorio de Uppsala (Suecia) en 1951, posteriormente en Berkeley (USA) en 1954. En la radioterapia los isótopos radiactivos atacan las células dañando el ADN de las cancerosas impidiendo que crezcan y se dividan, desgraciadamente también pueden destruir las células sanas. Las radiaciones ionizantes que se usan en radioterapia son: electrones, rayos X, fotones, protones e iones pesados. Los isótopos comúnmente utilizados son: Carbono-12, Cesio-137, Cobalto-60, Yodo-131, Fósforo-32, Oro-198, Iridio-192, Paladio-103. Más manipulables que los usados inicialmente.



Los procedimientos de diagnóstico por imágenes de medicina nuclear utilizan isótopos para detectar o descartar problemas de salud. Hay dos modalidades principales, las que utilizan isotopos emisores de rayos gamma que se detectan por medio de una gamma cámara exterior al paciente, las que utilizan  radioisótopos beta que precisan de un ciclotrón para ser generados.



Gammagrafía o Escintigrafía  técnica derivada de la radiografía, que utiliza la radiación procedente de un isótopo para impresionar la película fotográfica. Dicho isótopo se acumula en zonas concretas: así, por ejemplo, si se utiliza un isótopo que va a las zonas en crecimiento, y permite detectar metástasis en los huesos utilizando isótopos de tecnecio. El isótopo para el tiroides es de iodo, el pulmón utilizando dos técnicas en función de lo que se desea diagnosticar, inhalación y perfusión (inyección) los isótopos son de tecnecio o galio.



SPECT (Single Photon Emission Computed Tomography) utiliza rayos gamma que producen los isótopos radioactivos como el tecnecio-99 que se introducen por perfusión. Es muy parecida a una radiografía, pero utiliza una cámara sensible a los rayos gamma, cada uno de las imágenes que se obtienen es bidimensional, combinando las imágenes tomadas se obtiene imágenes tridimensionales, pudiendo obtener secciones en cualquier orientación.  Imágenes que se pueden superponer con Tomografía Axial Computarizada (TAC) o Resonancia Magnética Nuclear (RMN) para producir diversas vistas que permiten que la información se correlacione y se interprete en una sola imagen, las nuevas unidas ya son una fusión de las dos SPECT/TAC. Es útil en el diagnóstico de enfermedades coronarias, cardiomiopatía, funciones cerebrales, y en la localización de algunos tipos de tumores.



PET (Positron Emission Tomography) esta técnica utiliza radioisótopos emisores beta que precisan de un ciclotrón para ser generados. El isótopo produce un positrón que después se aniquila con un electrón para producir los dos fotones gamma en direcciones opuestas que son captados y trasformados en imagen, se utiliza para el estudio de la fase y alcance en que se encuentra el cáncer, para el estudio de demencias, accidentes vasculares cerebrales o tumores. También sirve para el estudio de la enfermedad de Parkinson a través de la medida de los rastros de neurotransmisores químicos como la dopamina. Se ha publicó en febrero en la revista "Archives of Neurology" una técnica -desarrollada por un grupo de los especialistas dirigido por Gary Small de la Universidad de California en Los Ángeles- que permite predecir el Alzheimer en un periodo que, de momento, alcanza los dos años. En Cardiología se puede emplear para estudiar el músculo cardiaco antes de su trasplante.



Densitometrías para valorar la salud ósea y detectar la osteoporosis, mediante tres sistemas rayos x, ultrasonidos o isótopos radiactivos, y la angiogammagrafia (cerebral, hepática, renal…) que usa en ocasiones radioisótopos para el diagnostico.



La investigación sigue, las últimas noticias confirman que una nueva medicina a base de Radio, elemento más radioactivo que el Uranio, que ataca la metástasis de hueso está a punto salir al mercado, y abre el camino a una nueva forma de medicina. En esa dirección va el proyecto del CERN, conocido provisionalmente por el nombre de MEDICIS que hará posible generar una gran variedad de isótopos radiactivos que mediante procesos de la imagen serán capaces de resaltar tejidos cancerosos y destruirlos emitiendo isótopos locales que destruyan las células. Lo que se está pregonando cómo dañino y mortal resulta que es uno de los caminos para salvar vidas combatiendo uno de las enfermedades que más gente mata en nuestra sociedad.

martes, 8 de mayo de 2012


Nanotecnología.

¿Qué hace la nanotecnología?, modificar a escala ínfima de 10-9 (milmillonésimas) las moléculas y los átomos, de ahí su nombre nano, cómo se hace con el ADN de las personas, obteniéndose resultados sorprendentes. Definiríamos a la nanotecnología como el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a esa misma escala. Por ejemplo se puede  fabricar "una cerámica tan fuerte y resistente como el acero", y lo que es más importante "para baños con soluciones antibacterias".

La primera noticia se remonta a la conferencia que Richard Feynman (Nobel de Física 1965) pronunció en Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959  "There's Plenty of Room at the Bottom (En el fondo hay espacio de sobra)“, nadie podía imaginar lo que 53 años después se está desarrollando. Más de 40 laboratorios en el mundo están invirtiendo grandes cantidades de dinero, y más de 300 empresas están trabajando en esta tecnología.

El impacto actual es muy pequeña, sólo un 0,1%, se prevé que para el 2015 la producción y uso de productos nanotecnológicos sea del 15%. Posiblemente sea muy optimista, ya que la cifra está basada en ayudas a las empresas que la utilizan, que en mi opinión y por la crisis que se está atravesando no serán las que se esperan.

Un informe publicado por investigadores de la Universidad de Toronto, en Canadá, indica que las quince aplicaciones más prometedoras de la nanotecnología son:

·         Almacenamiento, producción y conversión de energía.

·         Tratamiento y eliminación de contaminantes de aguas.

·         Eliminación de contaminación o contaminantes de la contaminación atmosférica.

·         Diagnóstico de enfermedades, e identificación de ciertas afecciones genéticas.

·         Sistemas de administración de fármacos.

·         Monitorización de la salud.

·         Producción agrícola.

·         Detección y control de plagas.

·         Procesamiento de alimentos.

·         Control de desnutrición en lugares pobres.

·         Alimentos transgénicos.

·         Construcción.

·         Informática.

·         Armamento y sistemas de defensa.

·         Cambios térmicos moleculares (Nanotermología)

La nanotecnología tiene también su versión ecológica, transformado residuos, y emitiendo menos CO2, a título de ejemplo fabricar:

Cemento con neumáticos usados, basuras domésticas, lodos de papelera....

Clínker (la principal base material del cemento) con escorias, cenizas de procesos térmicos, cascarilla de hierro, lodos de papelera, arenas de fundición o espumas de azucarera….

Evitando la explotación de una cantera para fabricación de cemento durante 3 años, lo que ahorraría 250.000 toneladas de petróleo y la emisión de 2,5 millones de toneladas de CO2

En medicina se han producido avances, en octubre de 2011 se presentó un aparato espectroscópico que puede reemplazar pinchazos dolorosos a los diabéticos. Los investigadores del MIT (Instituto de Tecnología de Massachusetts) han dado un paso clave hacia el desarrollo de un dispositivo portátil para medir la glucosa en la sangre haciendo brillar una luz a través de su piel. George R. Harrison Chae-Ryon Kong y Barman Ishan, detallan el tema en la revista “Avances AIP”. Utilizando la llamada  dispersión Raman los fotones interactúan con las moléculas que vibran de tal forma que cambian sus niveles de energía, cada tipo de molécula produce un conjunto único de los niveles de energía que aparecen como un espectro e identifican la molécula. Se ha fabricado un prototipo que a pequeña escala permite reproducir este efecto. Este desarrollo es el primer paso hacia la fabricación de la espectroscopia Raman portátil Según Ramachandra Dasari, director asociado del laboratorio de Espectroscopia del MIT, los espectrógrafos Raman portátiles podrían utilizarse también para identificar otros marcadores químicos de enfermedad en sangre, y por ejemplo determinar si contienen las biopsias tejido canceroso, las pruebas correspondientes duran un minuto. Las nano partículas de oro se están empleando como marcadores cancerígenos para dirigir fármacos hacia los órganos o células deseadas, y estamos asistiendo a la creación de un nano fármaco programado para combatir el cáncer, el BIND-014 (BIND Biosciences Presents Preclinical Data for Novel Nanomedicine, BIND-014, at American Chemical Society National Meeting), que dirige el fármaco encapsulado en nano partículas directamente hacia los tumores.

Existen proyectos que parecen de ciencia ficción. El Sunshine Project de la Universidad de Sheffield, en colaboración con London College of Fashion, ha presentado unos vaqueros que limpian el aire a su alrededor, mediante procesos de nanotecnología, el familiar pantalónl azul, elimina los contaminantes procedentes de la industria y del tráfico de las carreteras con fotocatalizadores añadidos a la tela.

En la Universidad de Michigan se ha conseguido con el llamado Carbón Nanotube (cilindros compactos hechos d de carbón con el grosor de un átomo) que objetos reales “se hagan invisibles”. El equipo de investigadores ha utilizado el bajo índice de refracción de los nanotubes, absorbe la luz sin la dispersión. Los ojos humanos pueden ver cualquier objeto sólo cuando la luz es reflejada de ello y las radiaciones entran en la retina. Sin embargo si la luz es absorbida entonces tendremos una ilusión como si nada está presente. En el Carbón Nanotube del experimento, el 99.99 % de luz puede ser absorbido. Sin embargo el objeto no es completamente invisible, se ve su sombra. En marzo de 2012 un equipo de científicos españoles y eslovacos, comandados por Fedor Gömöry y de Álvaro Sánchez, va más lejos, logra hacer un cilindro invisible al campo magnético, por lo que resulta indetectable. Tiene su lado médico, al ser “invisible” (no detectable) por el campo magnético, permite que personas con marcapasos puedan someterse a resonancias magnéticas nucleares sin problemas.

Hoy son de uso común muchos elementos fabricados con esta tecnología, plasmas, pantallas táctiles, computadores y teléfonos móviles. En estos momentos de crisis las empresas tradicionales pueden beneficiarse de ella e incrementar su competitividad en sectores como: textil, alimentación, calzado, automoción, construcción, salud… mejorando sus productos, incorporando otros nuevos, y con ello contribuir a la sostenibilidad del empleo. Luis M. Liz-Marzán (catedrático de Química Física de la Universidad de Vigo) ha dicho "La nanotecnología es una auténtica revolución porque ofrece la posibilidad de cambiar la forma de pensar en los distintos materiales y sus posibles aplicaciones. Se puede aplicar a todos los campos pero, entre ellos, puede revolucionar la medicina del futuro". Afortunadamente lo mismo que en la Universidad de Vigo encontramos en España otras universidades que están investigando en este campo, Alicante, Barcelona, Madrid, Navarra, Zaragoza…

Al margen universitario en el mundo existen 40 laboratorios y más de 300 empresas trabajando en esta tecnología.

Ya lo decía Séneca “La naturaleza nos ha dado las semillas del conocimiento, no el conocimiento mismo”.

viernes, 4 de mayo de 2012

Agua del mito a la realidad

La vida en el Universo tal como la conocemos necesita agua o posibilidad de que pueda haberla, para la Tierra es su fuente de vida, sin ella no pueden vivir ni las plantas, ni los animales, ni el ser humano. La misma fotosíntesis no podría tener lugar en los vegetales.

La humanidad la tuvo presente desde siempre, las leyendas y los mitos nos hablan de ella. Los Celtas rendían culto al agua por su función creadora y purificadora, siendo el agua de la lluvia sagrada por venir del cielo, de los dioses. El cristianismo hizo suyos los lugares y leyendas, aquí en Galicia existen ejemplos, la leyenda de Cospeito, uno de los humedales más singulares de la Terra Chá, dice que es obra de la Virgen. Cerca de Ourense tenemos la leyenda de Santa Mariña de Augas Santas, que cuando el verdugo cortó su cabeza cayó dando tres saltos en el suelo diciendo: ¡Creo, creo, creo!... surgiendo en el lugar donde se detuvo una fuente, existiendo aún hoy la costumbre de visitarla y pedir un deseo.

Los griegos asociaron las Ninfas Náyades a las aguas dulces, las Ondinas vivían en lagos, ríos, cascadas. También en la América precolombina los mitos y costumbres de los Mayas y Aztecas estaban relacionadas con el agua, como la colombiana de la "La madre de agua", "El río hablador" en Perú, hay leyendas que hablan de aguas que discurren bajos sus pies, algunas se remontan a la Atlántida.

Con la agricultura el hombre agudizó el ingenio y pasó de los mitos a la realidad, al llegar los españoles a América quedaron admirados por el acueducto construido por Moctezuma de más de cinco kilómetros. En Mesopotamia y en China se construyeron ingeniosos canales que transportaban el agua de los ríos para regar, del mismo modo que los romanos construyeron acueductos para llevarla donde la necesitaban. La consideraban tan esencial que en el derecho romano el agua corriente era un bien común, dejando fuera del comercio los ríos y las orillas.

Milenios después sigue siendo un bien inestimable, buscándose una racionalización de su uso, estudiando formas de obtenerla, llegando a comprobarse que el agua en el subsuelo es más abundante de lo que se pensaba. En Asia un océano subterráneo, la llamada "Anomalía de Beijing" porque se encuentra debajo de esa ciudad, tiene una masa de agua comparable en volumen al océano Ártico, y actúa como lubricante en el desplazamiento de las placas tectónicas. En otro continente, el africano, el agua en el subsuelo es cien veces superior al de la superficie. Hay enormes acuíferos producto de la lluvia en los desiertos del Sahara y Kalahari que se remontan a 5.000 y 25.000 años cuando estos desiertos eran unos vergeles. El volumen de agua en el subsuelo es equivalente a la lluvia en el continente durante veinte años, según lo publicado en "Environmental Research Letters", por lo que los geólogos advierten que la explotación tiene que hacerse de forma racional, hay que tener en cuenta también sin ninguna duda los problemas geoestratégicos que puedan surgir por la explotación de esta riqueza. En el norte las bolsas de agua almacenada tienen un grosor de 75 metros y se encuentran protegidas por rocas de gran dureza como el granito, lo que ha supuesto una sorpresa para los investigadores, tendré que pedirle al geólogo y profesor José Ramón Seara Valero que me lo explique.

Siendo el agua básica para la supervivencia, considero imprescindible aplicar las tecnologías existentes para trasportarla y conseguir que llegue a todos, no podemos ser menos que nuestros ancestros.