viernes, 11 de diciembre de 2009

LA VENTA DIRECTA POR LOTES DESDE INTERNET, el futuro de la estructura comercial de toda empresa o fábrica de bienes de consumo

Históricamente, la estructura comercial de cualquier fábricación ha buscado su mayor productividad en la producción a stock por lotes optimizando sus costes de fabricación en base a una rotación de los bienes producidos que tuvieran unos costes de almacenaje inferiores al incremento de coste habido por desglosar la producción en lotes mas pequeños.

Esta es la clave de la existencia de las fábricas. Poder fabricar una cantidad mayor del mismo producto con el objetivo de reducir su coste de fabricación. Con esta definición, acabamos de inventar la producción en serie, base de una de las revoluciones industriales del siglo veinte.

La estructura comercial de cualquier fábrica , a partir de aqui, se estructura de muy diversas maneras dirigidas normalmente a vender cuanto antes el producto que se fabrica de manera optima en una cierta cantidad.

A partir de este momento, surgen todo un abanico de casuisticas que hace que en un momento dado, sean las ventas las que dominen sobre los costes de fabricación obligando al empresario a forzar una fabricación mas cara produciendo sus articulos en lotes mas pequeños porque no puede vender el producto con la celeridad necesaria para que no se le disparen los costes de producción / almacenamiento.

La venta del producto, además y como todos sabemos esta gravada por toda una serie de intermediarios que en ocasiones llegan a provocar que el precio del producto que llega al consumidor final sea dos, tres o hasta diez veces su coste de producción según casos.

Imaginemos un futuro que ya es presente en el que las ventas se produzcan cada vez mas por internet. Imaginemos un mundo en el que la exposición virtual de los articulos llegue a tal nivel que sea innecesario el verlos fisicamente para identificar cual es el que queremos. Naturalmente esto no será factible en todos los productos, pero si en un gran porcentaje de ellos. Esta situación será una realidad en un periodo mucho mas breve de lo que nos imaginamos. Bastará con que la gente que ha crecido con internet pase a ser el cliente consumidor, cosa que ya ocurre.

¿ Como puede una empresa de fabricación optimizar sus costes utilizando las nuevas tecnologias? ¿Como puede una empresa de fabricación o producción de bienes trabajar siempre produciendo sus lotes optimos?

La respuesta es mucho mas sencilla de lo que parece y muy pronto la veremos implementada en nuestros mercados de consumo. Simplemente, organizando la VENTA POR LOTES POR INTERNET.

Imaginemos una empresa que decide que su lote optimo de fabricación de un producto es 1000. Esta empresa ofrece este producto por internet a un precio bajisimo de producción al que, además, se le eliminan los costes de distribución y venta casi en su totalidad y espera a tener los 1000 compradores que necesita para lanzar la producción. En ese momento el cliente final tiene el coste mas barato para un mismo producto de alta calidad que el fabricante va a fabricar CONTRA PEDIDO, pero no contra pedido de un gran almacén sino contra pedido de mil clientes distintos a los que servirá el producto de manera separada. Esta utopia se optimiza en función del lote de fabricación , del producto que sea y de los costes de envio pero, ya podemos ver hoy en dia a mas y mas empresas servir sus productos via mensajeros o correo urgente a unos costes de envio verdaderamente pequeños.

¿ Es esta toda la innovación que nos permiten las nuevas tecnologias usadas como canales de ventas? , pues NO, este es solo el primer paso porque, introduciendo todavia un pequeño margen para un intermediario virtual, el coste final del producto practicamente no se vé afectado y en cambio damos paso a la exitencia del verdadero motor de la VENTA POR LOTES POR INTERNET.

Se trata de la página WEB que aglutine a los compradores, la pagina WEB que organice que productos se pueden vender a que precio según en que cantidades ofreciendo un servicio directamente a clientes finales desde los fabricantes a través de internet.

Aparecen entonces todo una serie de rapels en función de que se consiga agrupar a distintas cantidades de clientes finales para según que producto que será servido directamente de las fábricas al cliente final dejando un MUY PEQUEÑO porcentaje a los propietarios de esta página WEB que se encargará de aglutinar clientes, buscar e identificar productos, negociar precios y lotes y dirigir los clientes a las fábricas a las que no les será rentable tener este servicio de VENTA POR LOTES POR INTERNET pero que se beneficiarán directamente de su existencia.

Las oportunidades de negocio actuales para todos los involucrados en esta transformación de los canales de venta tradicional es evidente.

Con este sistema, acabamos de inventar la IKEA INTERNET y acabamos, asi mismo, de cargarnos todas las superficies comerciales de venta que exiten actualmente y las que todavia están por construir.

Al mismo tiempo , acabamos de dar viabilidad a las miles de empresas y fabricas que producen articulos de consumo que con esta estructura de ventas, van a poder existir y competir con el resto del mundo, empresas y fábricas españolas que van a resurgir de la nada o a ser construidas de nuevo por nuevos emprendedores.

Así pues, según esta teoría, de la misma manera que vimos desaparecer los comercios pequeños de las décadas de los 50, 60 y 70 y ser sustituidos en su mayoria por las grandes superficies, en las próximas décadas veremos desaparecer a las grandes superficies que serán sustituidas por este tipo de comercialización, cambiando la profesión del vendedor por la del ingeniero o informático que sea capaz de transmitir al cliente final una visión completa del producto que cada cual necesita a través del sistema virtual adecuado.

Si nos damos cuenta, un primer paso hacia este futuro inminente ya ha sido dado por algunas empresas sin apoyarse en las nuevas tecnologías, empresas que han conseguido su desarrollo en los últimos diez o quince años a base de efectuar la venta directa a cliente, aquellas empresas que controlan la propia distribución de su producto y que serán las únicas supervivientes , llámese Zara, Cortefiel, algunas empresas de cosméticos o tantas otras que venden directamente sus productos al cliente final.

Según mi humilde opinión, en las proximas décadas, las grandes superficies de venta desaparecerán, serán utilizadas unicamente como lugar de ocio y expansión y solo las empresas que efectúen una venta directa podrán competir con la venta por Internet.

La idea de la VENTA POR LOTES POR INTERNET pertenece a mi hijo Jaume de veintinueve años de edad, un joven de su época que ya tiene mas visión que yo mismo de lo que será la evolución de su mundo, mucho mas cambiante todavia que el que me tocó vivir a mi a esa edad.



martes, 6 de octubre de 2009

Alimentación eléctrica inalámbrica de hasta 60 watios a 50 centimetros de distancia.

El desarrollo de Sony, que seguramente no será la única empresa que esté trabajando en este tema, es muy importante.

Puede ser impactante en la vida cotidiana de los próximos años y llegar a generar un cambio importante en las costumbres establecidas.

Poder eliminar el cable de alimentación eléctrica de todo lo que consuma 60 watios o menos en una distancia de hasta 80 cms es el primer paso para que la distancia pueda cubrir toda una habitación y permita hacer desaparecer los cables del ordenador, de las lámparas de sobremesa, de los juguetes eléctricos, de las cafeteras eléctricas, de los equipos de música .....etc.

Mil equipos que van a tener un nuevo aliciente para ser renovados. Todo un mundo de negocio que se vuelve abrir apoyado en la compra cuasi-compulsiva que genera la aparición de nuevos inventos tecnológicos, una de las enfermedades de nuestra época.

Un invento, en fin, que formará parte del modo de vida de las siguientes generaciones.

Ya veremos que pasa con la influencia de las nuevas ondas sobre la salud, el medio ambiente, la polución electromagnética y todo lo demás, pero eso es algo que , en realidad, no le parece importante a los economistas en la primera fase de la existencia de los inventos, por lo menos hasta ahora.







viernes, 26 de junio de 2009

Control de Iluminación en viviendas mediante Fibra óptica


La evolución de los sistemas de iluminación en vivendas y edificios públicos está siendo ya uno de los puntos de apoyo importantes en la reducción del consumo energético.

La utilización de la fibra optica para optimizar estos menesteres, su uso como interruptor y la introducción del alumbrado inteligente controlado por fibra óptica, que actualmente ya se está efectuando en los grandes edificios, a nivel de vivienda particular será uno de los puntos importantes en los que se apoyarán las futuras politicas de reducción de consumo energético en la vivienda familiar.

Su versatilidad y nuevas prestaciones serán otro de los atractivos que van a facilitar la introducción de esta tecnologia en todas las instalaciones de alumbrado además de los mayores niveles de seguridad y facilidad de instalación que presenta.

La empresa MECEL, pionera en esta tecnologia nos aporta la visión de futuro de su Director Manuel Hortal al que felicito desde este pequeño comentario.

miércoles, 10 de junio de 2009

La regla de cálculo, ese antiguo artilugio

La regla de calculo era la calculadora de hace treinta años. Un metodo geométrico que permitia hacer todas las operaciones matemáticas menos la adición y la sustracción moviendo dos segmentos de madera o plástico, haciendo correr uno sobre el otro.

Entender la operativa de funcionamiento de la regla de cálculo obligaba a entender el concepto de logaritmo y permitia ver una realidad palpable de un uso de las matemáticas relativamente complicadas.

Operaciones exponenciales complejas mezcladas con productos y divisiones eran un juego de niños operados con la regla de cálculo al mismo tiempo que te permitia entender el porque de la existencia de algunas operaciones matemáticas , diseñadas unicamente para poder descifrar los artilugios de nuestro mundo, la fisica de nuestra realidad cotidiana o las interrelaciones de nosotros con la materia que nos rodea. La regla de cálculo era un ejemplo palpable de ello.

La calculadora ha venido a sustituir y superar con creces a este hoy obsoleto y casi arcaico instrumento y, al arrinconarlo en el último cajón de nuestra mesa de trabajo, hemos enterrado con él una pequeña parte, al menos , de los principios fundamentales del proceso de aprendizaje : el entender el porqué de la cosas, sus principios de funcionamiento y las razones de su existencia.

Usar la regla de cálculo te obligaba a entender su funcionamiento y por consiguiente a tener que descifrarlo primero para poder hacer un correcto uso de ella.

Las calculadoras y los ordenadores nos recortan esa posibilidad de aprendizaje haciendonos olvidar a veces el verdadero principio de funcionamiento de las cosas.

No debe de ser malo el uso de la calculadora, hoy tan extendido en todos los colegios y universidades pero es un hecho que nos permiten vivir el estudio sin forzar el ejercicio de los calculos mentales, sin obligarnos a mantener cinco números en memoria y a hacer cuatro operaciones mentales seguidas dando un resultado final correcto. Nos permiten, a la postre, resolver problemas de cuarto o quinto nivel sin entender los principios fundamentales de su operativa básica, de su problemática intrinseca.

Alguien te dice : Apunta un número de telefono que te voy a dar ......, son nueve cifras seguidas que dificilmente somos capaces de retener sin apuntarlos en un papel. Si la información incluye un segundo número de telefono dictado a continuación, la operación mental de retención de dieciocho números es un escollo dificil de salvar para la gran mayoria.

No digo yo que la regla de cálculo te permitiera tener mayor capacidad de retención, pero estoy seguro de que ayudaba.

A mi vieja regla de cálculo que un dia se quemó por error en una estufa eléctrica de 600 Pts, dedico este pequeño comentario.

La regla de cálculo

jueves, 16 de abril de 2009

Desaladoras, la polémica está servida

La desalación de agua de mar ha sido caballo de batalla en largas y ceñudas discusiones entre nuestros politicos en los ultimos años.

Atendiendo a realidades y eludiendo la polémica, la tecnologia de la desalación por osmosis inversa hace mucho que esta siendo utilizada a lo largo y ancho del planeta y España es una potencia mundial en desalación, tanto en tecnologia como en instalaciones en funcionamiento. Sus mas de setecientas plantas existentes actualmente en funcionamiento lo avalan.

Desde el punto de vista tecnológico , una planta desaladora no tiene nada que ver con una planta depuradora de aguas residuales si bien el objetivo es eliminar contaminación en ambos casos, contaminación, evidentemente según la perspectiva del consumo humano.

Este articulo de la revista MUY INTERESANTE muestra de una manera clara y sencilla las tripas de una planta desaladora por osmosis inversa al mismo tiempo que hace una exposición muy objetiva de la situación mundial del uso de esta tecnologia.

Si bien no es la única tecnologia de desalación existente, ni tampoco la óptima en la reutilización del agua de mar, si que es, en cambio, la mas usada y mas experimentada.

La utilización del agua desalada de desaladoras por la tecnologia de osmosis inversa ha permitido al ser humano tener agua potable en muchos sitios en los que el agua era necesaria y las alternativas para obtenerla practicamente nula.

Pensar que punto marca la diferencia entre recomendar el uso o no de estas plantas en función de las distintas alternativas existentes para obtener el preciado liquido elemento no es objeto de este sencillo comentario asi que, os dejo con la explicación tecnológica de su funcionamiento que puede saciar mas de una curiosidad sobre este tema.

En un futuro mas cercano de lo que parece veremos progresar tecnologias alternativas dirigidas a conseguir el Zero Liquid Discharge, es decir, la reutilización al 100 % del agua tratada, tanto en el agua obtenida en las plantas de tratamiento de aguas residuales como en las plantas desaladoras de nueva implantación.

La reconversión de todas las plantas existentes implantando la tecnologia ZLD (Zero Liquid Discharge), tanto en Edares ( Estaciones depuradoras de aguas residuales) como en ETAP´s ( Plantas potabilizadoras de agua ) como en Plantas Desaladoras, vá a ser el caballo de batalla de los gobiernos de los próximos treinta años en España de la misma manera que en los últimos treinta años lo ha sido la construcción, puesta en marcha y mantenimiento de las miles de plantas de tratamiento de aguas residuales que ya existen en nuestro pais.

Nuestra condición de alta dependencia del turismo y las cada vez mayores necesidades de agua potable y agua de riego que esto implica no dejan alternativa alguna a nuestros sucesores.

Las lineas de desarrollo de estas tecnologias , dado el estado embrionario en que se encuentran, son un excelente caldo de cultivo para el futuro desarrollo de nuestros ingenieros, fisicos y quimicos. Personas que piensen, funden y pongan en marcha nuevas empresas españolas que nos den mejor agua y mas barata sin tener que pagar royalties. Que nos permitan atender a nuestras necesidades internas y las externas que queramos admitir dentro de un desarrollo sostenible de nuestro pais. Es este un punto que nuestros politicos no deberian de dejar pasar por alto y que deberian apoyar con gran intensidad.



fuente: Revista MUY INTERESANTE

domingo, 29 de marzo de 2009

Fusión nuclear , ¿ La energia del siglo XXI?



LA ENERGIA DEL SOL Y LAS ESTRELLAS


La fusión nuclear, por sus reservas prácticamente inagotables de combustible, ofrece una gran potencialidad como una fuente de energía alternativa en el siglo XXI. Las reacciones de fusión son las que liberan la energía que alimenta el sol y las estrellas. Los investigaciones en física de plasmas permiten reproducir en la tierra las condiciones que requieren la fusión termoluclear controlada.

Los plasmas, conjunto de partículas con carga eléctrica que se mueven libremente, existen en circunstancias muy distintas y abarcan un rango muy amplio de temperaturas y densidades. La física del plasma es la base de nuestro conocimiento del Sol y las estrellas, de los espacios interestelares, las galaxias, las auroras boreales, los relámpagos así como las reacciones de fusión termonuclear controlada.

De las alternativas investigadas para conseguir la fusión nuclear controlada, destacan los sistemas de confinamiento mediante campos magnéticos, entre los que los dispositivos tokamak y stellarator constituyen las principales líneas de investigación, y la fusión inercial, que intenta conseguir la fusión nuclear a partir de intensos láseres o haces de partículas que comprimen el material fusionable (deuterio y tritio). Las investigaciones en fusión nuclear combinan los problemas de física básica con desarrollos de alta tecnología.

El objetivo fundamental que impulsa la investigación en fusión nuclear es demostrar la viabilidad científica - tecnológica de una reactor de fusión nuclear. Treinta años de intensa investigación en física de plasmas en dispositivos de confinamiento magnético han pertimitido alcanzar un elevado nivel de conocimiento en las áreas de investigación claves para el desarrollo de un reactor de fusión nuclear, tales como, trayectorias de partículas cargadas, equilibrio y estabilidad macroscópica de plasmas y calentamiento mediante ondas e inyección de haces de partículas energéticas. La generación de energía de fusión primero en el laboratorio Europeo JET, en Noviembre de 1991, y posteriormente en los laboratorios de la universidad de Princeton (E.E.U.U.) en 1993 ha marcado un importante hito en la investigación en plasmas de fusión en el camino hacia la construcción de un reactor de fusión. En el contexto nacional, la puesta en operación del dispositivo de fusión nuclear TJ-II (Laboratorio Nacional de Fusión por Confinamiento Magnético, Madrid) actúa como catalizador de proyectos de investigación aplicada-básica en una amplia gama de problemas que tiene como eje central la fusión nuclear.

Desde una perspectiva de física básica, el problema del transporte en plasmas de fusión refleja las propiedades de sistemas muy alejados del equilibrio termodinámico con fuentes de energía libre asociadas a gradientes de densidad, temperatura que dan lugar a una gran variedad de inestabilidades. Esta problemática, de marcado carácter multidisciplinario, posiciona a los estudios de plasmas de fusión nuclear como un punto de encuentro de distintas disciplinas científicas que van desde estudios de magnetohidrodinámica hasta dinámica de sistemas complejos.

Desde una perspectiva tecnológica la fusión nuclear impulsa una amplia gama de desarrollos en nuevos materiales, sistemas de calentamiento, diagnósticos de plasmas, superconductividad y sistemas de control remoto.




Sol

FUSIÓN: LA ENERGÍA DEL SIGLO XXI

La importancia de la fusión

La fusión termonuclear controlada es una de las pocas opciones energéticas con capacidad potencial de suministro a gran escala para el siglo XXI.

Estimaciones razonables hacen pensar que la población mundial crecerá hasta alcanzar unos 10 000 millones de personas hacia mediados del siglo próximo.

En 1990 el consumo de energía primaria por habitante y año, en los países industrializados, fue de 2.2 x 1011 Julios, es decir 5.1 t.e.p. (toneladas equivalentes de petróleo) y 10 veces menos en los países en vías de desarrollo. Dependiendo de los escenarios considerados para la evolución de la demanda energética, el consumo de energía primaria mundial podría llegar a multiplicarse por dos o por tres en el año 2050.

Las fuentes de energía capaces de cubrir una parte sustancial de las necesidades energéticas previstas son las siguientes:

  • Combustibles fósiles: principalmente el carbón, ya que las reservas de petróleo y de gas natural habrán disminuido considerablemente.
  • Energía nuclear: fisión y fusión.
  • Energías renovables: hidráulica, solar, eólica, maremotriz, geotérmica, biomasa, etc ...
Los combustibles fósiles presentan problemas de contaminación ambiental, como lluvia ácida y exceso de CO2. Las energías renovables, aunque vayan cubriendo cada vez más necesidades energéticas, son fuentes dispersas y de baja concentración para usos industriales. Las centrales nucleares llevan asociadas el problema de almacenamiento de residuos radiactivos de alta activación. Se hace necesario desarrollar opciones energéticas nuevas prestando especial atención a los aspectos de seguridad, de impacto ambiental y económicos. La fusión termonuclear controlada constituye una de esas opciones, a pesar de que todavía haya que superar el problema de la complejidad tecnológica de los dispositivos para fusión. En efecto, el reto de la fusión es reproducir en la Tierra las reacciones que se producen en el interior de las estrellas. Construir reactores de fusión capaces de satisfacer una parte sustancial de las necesidades energéticas del planeta a medio plazo. El combustible necesario es abundante: el deuterio forma parte del agua de mares y oceanos, el tritio se podría producir a partir del litio, en el mismo reactor, en el llamado manto fértil. El sistema es seguro pues un reactor sólo contiene combustible para unos segundos de operación, y respetuoso con el medio ambiente al no producir gases contaminantes. Escogiendo materiales de construcción de baja activación se evitaría almacenar residuos estructurales durante centenares de años.

Reacciones nucleares

Los núcleos atómicos están formados por protones y neutrones empaquetados de forma enormenente compacta en una pequeña región del espacio. A estos elementos comunes de todos los núcleos se les denomina nucleones. Los protones y los neutrones tienen una masa prácticamente idéntica, 1836 veces mayor que la de los electrones. El radio del núcleo viene dado aproximadamente por la expresión

Eq_radionucleo.GIF

donde r=1.5 x 10-13 cm y A es el número de nucleones.

Z es el número de protones en el núcleo, y en consecuencia la variación de A-Z para una Z determinada es la que da lugar a los isótopos. Los isótopos del hidrógeno, el deuterio y el tritio, son los más relevantes para fusión en la actualidad, como veremos más adelante. Muy frecuentemente los isótopos de un elemento natural son radiactivos y se transforman de manera espontánea en otros. El tritio, por ejemplo, presenta una débil emisión b ( con energía media de 5.7 keV y máxima de 18.6 keV) y con una vida media de 12.35 años. Pero este fenómeno no será importante para la fusión pues en la escala de tiempos característicos en que ocurren los procesos de fusión ocurirá muy raramente.

Energia_Enlace.GIF

En los núcleos, las fuerzas de repulsión entre los protones son mucho menores que las fuerzas nucleares de atracción o enlace que mantienen el núcleo unido. Para extraer un nucleón de un núcleo hace falta energía, cuando el nucleón queda atrapado en el núcleo, libera esa misma energía. Esta energía depende del peso atómico A, pero tiene un valor máximo en torno a 8 MeV para los núcleos situados en las cercanias del hierro. En los procesos de fisión, elementos pesados con energía de enlace inferior a 8 MeV se rompen en núcleos más ligeros liberando energía, tendiendo hacia el hierro. En los procesos de fusión, dos núcleos de átomos ligeros se combinan o fusionan para dar lugar a uno más pesado, tendiendo también hacia el hierro. Es este último proceso de fusión el que lleva a las estrellas, al final de sus vidas, a tener un núcleo de hierro. Tanto en el caso de la fisión como en el de la fusión se libera una considerable cantidad de energía equivalente a la disminución de la masa de los productos finales con relación a los productos iniciales. Se cumple la famosa ecuación de Einstein:

Eq_einstein.GIF

Para que se forme un núcleo de más de un constituyente es preciso que ambos se acerquen a distancias del orden del alcance de las fuerzas nucleares. Para superar las fuerzas de repulsión culombiana, dos protones tendrán que superar dicha fuerza que actúa como barrera, antes de que la atracción de las fuerzas nucleares entre en juego. Las fuerzas de repulsión culombianas son proporcionales a la carga de los núcleos que interaccionan, y por ello, los plasmas de la familia del hidrógeno son los más adecuados para conseguir fusión. Existen diversos tipos de reacciones de fusión aprovechables desde el punto de vista energético. De entre todas las que implican isótopos de hidrógeno, la reacción deuterio-tritio es la que presenta mayor sección eficaz para temperaturas relativamente bajas y, por tanto, es la más fácil de obtener de manera controlada. La reacción genera un neutrón de alta energía y helio.

Eq_DT.GIF

En nuestro planeta el deuterio es abundante en el agua del mar (30 g/m3), pero el tritio no existe en estado natural ya que es radiactivo con una vida media de 12.36 años y hay que producirlo. En un reactor de fusión los neutrones, que llevan el 80 % de la energía producida, se absorberán en una cobertura generadora de tritio o manto fértil que envolverá la parte central del reactor y que contendrá el litio que se transformará en tritio y helio:

Eq_Li.GIF

El litio natural (92.5% 7Li y 7.5% 6Li) es un elemento abundante en la corteza terrestre (30 ppm: partes por millón) y en menores concentraciones en el mar. El espesor del manto debería ser lo suficientemente grande (del orden de un metro) para frenar los neutrones (de 14 MeV) producidos por las reacciones de fusión. Los neutrones se combinan con el litio para producir tritio. Al frenar los neutrones, el manto fértil se calienta y el refrigerante que circula en su interior transfiere el calor fuera del área del reactor para producir vapor de agua que generará finalmente electricidad de un modo convencional.

El uso de deuterio puro como combustible es un objetivo a largo plazo que tiene la siguientes ventajas: no es radiactivo, no se necesita un manto fértil para producirlo, e induce radiactividad de bajo nivel en la estructura. La reacción produce helio-3 y un neutrón, o tritio y un protón.

Eq_DDT.GIF

La reacción deuterio-helio-3 es atractiva por su sección eficaz y porque no produce neutrones. El helio-3 es muy escaso en la Tierra, pero existe en grandes cantidades en la Luna.

Eq_DHe.GIF

Plasmas de fusión

En los laboratorios, para vencer la repulsión electrostática entre los núcleos que se quieren fusionar, es necesario comunicarles mucha energía; esto se consigue calentándolos a elevadas temperaturas. En estas condiciones la materia se encuentra en forma de gas ionizado, que exhibe un comportamiento colectivo, llamado plasma. El 99% del Universo está constuido por plasmas, o sea materia ionizada, pero en la naturaleza existe una enorme variedad de plasmas que no cumplen necesariamente las condiciones de altas temperaturas de plasma para fusión.

Para conseguir un rendimiento neto positivo en una reacción de fusión es necesario calentar un plasma a temperaturas suficientemente altas y alcanzar densidades, n, del orden de 1020 partículas/m3, durante tiempos TauE del orden de segundos. Es decir, el producto n TauE debe superar una cota mínima, denominada criterio de Lawson, a temperaturas del orden de 100 millones de grados. El objetivo final del programa de investigación en fusión controlada es lograr la condición de ignición, es decir mantener la combustión del plasma mediante el aporte de energía de los propios subproductos de la fusión, confinados en el plasma. En un reactor de deuterio-tritio (D-T) la energía cinética de las cenizas de helio mantendrá la temperatura necesaria para que las reacciones se sigan produciendo y no se requiera calentamiento exterior.

Se estudian dos vías experimentales para llegar a esta condición, la fusión por confinamiento magnético, en la cual un plasma caliente se confina mediante campos magnéticos que actúan como una trampa magnética para las partículas cargadas del plasma, en este esquema n = 1020 m-3 y TauE = 1 a 5 s; la fusión por confinamiento inercial, en la que una diminuta cápsula de combustible se comprime fuertemente (más de mil veces la densidad de un líquido) hasta que se inicia la ignición en el centro y se propaga hacia el exterior, donde el combustible está más frío. La ignición dura mientras el combustible se mantiene confinado por su propia inercia. El confinamiento inercial no puede ser estacionario, en este esquema n = 1031 m-3 y TauE = 10-11 s; TauE es el tiempo de libre expansión de la materia.

Una de las características del plasma es que se pueden confinar mediante campos magnéticos. En efecto, las partículas cargadas del plasma se ven obligadas a describir trayectorias en forma de espiral alrededor y a lo largo de las líneas de campo magnético.

La ecuación de movimiento de la partícula es:

Eq_movimiento.GIF

donde m es masa de la partícula, e la carga de la partícula y c la velocidad de la luz. La componente de v paralela al campo B no se ve afectada por B pero la partícula gira en torno a B como eje, describiendo círculos de radio rL (radio de Larmor):

Eq_radioLarmor.GIF

siendo Eq_Vperp.GIF la componente perpendicular a B.

La suma del movimiento circular y de traslación con velocidad v|| dan lugar a una trayectoria helicoidal con un momento magnético,

Eq_momento.GIF

donde Eq_energia.GIF es la energía magnética de rotación de la partícula.

El momento magnético de la partícula tiene la propiedad de conservarse, con lo cual la energía magnética de la partícula será mayor cuanto mayor sea el campo magnético.

Trayectoria.GIF

Sin embargo las colisiones entre partículas producen desplazamiento de éstas a través de las líneas y superficies magnéticas, con la consiguiente pérdida de confinamiento magnético. Este transporte colisional es inevitable pero no impide que las párticulas se puedan confinar, sino que reduce su tiempo de confinamiento.

La investigación en el campo de la fusión por confinamiento magnético es, en la actualidad, la más avanzada de cara a la construcción de un futuro reactor de fusión.


Fuente: Asociación EURATOM-CIEMAT para fusión

sábado, 21 de marzo de 2009

El coche volador despega, un articulo de Massachusetts Institute of Technology

Flying car takes wing

MIT alums' invention makes its first test flights

David Chandler, MIT News Office
March 19, 2009

A prototype of what is being touted as the world's first practical flying car took to the air for the first time this month, a milestone in a project started four years ago by students in MIT's Department of Aeronautics and Astronautics.

At 7:40 a.m. on March 5, the winged car taxied down a runway in Plattsburgh, N.Y., took off, flew for 37 seconds and landed further down the runway -- a maneuver it would repeat about a half dozen times over the next two days. In the coming months the company, a Woburn-based startup called Terrafugia, will test the plane in a series of ever-longer flights and a variety of maneuvers to learn about its handling characteristics.

Above: The first flight of Terrafugia Transition, March 5, 2009.

Aviation enthusiasts have spent nearly a century pursuing the dream of a flying car, but the broader public has tended to view the idea as something of a novelty. Still, such a vehicle could have more practical appeal now that the Federal Aviation Administration has created a new class of plane -- Light Sport Aircraft -- and a new license category just for pilots of such craft, including Terrafugia's two-seater Transition. The "sport pilot" license required to fly the Transition takes only about 20 hours of training time, about half that required to earn a regular pilot's license.

The street-legal Transition is powered on land and in the air by a recently developed 100 hp Rotax engine that gets 30 mpg on the highway using regular unleaded gasoline. As a plane, its 20-gallon tank gives it a 450-mile range with a 115 mph cruising speed. The pilot can switch from one mode to the other from the driver's seat, simultaneously folding up the wings and shifting the engine power from the rear-mounted propeller to the front wheels in about 30 seconds.

Speaking at a March 18 news conference in which the Transition's first test flight was announced, Terrafugia CEO and co-founder Carl Dietrich '99, SM '03, PhD '07 said the FAA rule change and the Transition could help transform the way people move around the country -- especially in rural areas. "One of the biggest problems pilots have right now is that most of the 5,000 general aviation airports in the U.S. don't have any car rental facilities, or even a cab stand," he said, noting that the Transition could open many of these underused airports to easier, more practical use by private pilots.

The vehicle may also lead to improved safety. "One of the largest causes of accidents is pilots flying in bad weather," he said. With the Transition, a pilot who spotted bad weather ahead could simply land at the nearest airport, fold up the wings, drive through the weather on local roads, and take off from another airport once past the storm.

The first testing of Terrafugia's car-plane concept took place with a one-fifth scale model in MIT's Wright Brothers Wind Tunnel in 2005, while Dietrich and his wife, Anna Mracek Dietrich '04, SM '06, now the company's COO, and VP of Engineering Samuel Schweighart SM '01, PhD '05, were all students here, as were two of the other company principals.

The full-sized version being tested now is a proof-of-concept vehicle, to be followed later this year by a production prototype. The company is taking deposits now and hopes to start delivering its first Transitions -- or "roadable planes," as the company calls them -- in late 2011.

Test pilot Phil Meteer, who was at the controls in Plattsburgh, said that the short and simple first flight was both "remarkably unremarkable" and vitally important: "Ninety percent of the risk in the total program comes in the first flight, and now we're past that."

A retired U.S. Air Force colonel, Meteer said the plane handled so smoothly in the test flights that all of the possible contingencies he had practiced became irrelevant. "You're in a hypervigilant state" during the initial takeoff, he said, but as he saw how smoothly the flight was going he had a "wahoo moment: none of this is happening!"


Video del coche desplegando y recogiendo las alas


La opinión del comentarista del ultimo video es mucho mas prudente sobre el futuro de este nuevo vehiculo atendiendo a la falta de información sobre él facilitada por sus inventores sin por ello menospreciar las verdaderas posibilidades que supone en nuestro futuro inmediato.

miércoles, 18 de marzo de 2009

Magnetoresistencia gigante, los nuevos nucleos de ferrita, base de la memoria de los ordenadores o como funciona un disco duro de ordenador

Magnetoresistencia gigante

Éste es el descubrimiento (realizado en 1988 por Albert Fert y Peter Grünberg) que este año se ha llevado el Premio Nobel de Física 2007.

Cuantas veces en foros, o comentarios de otros blogs, llega alguien comentando que la ciencia no sirve para nada, sin darse cuenta que el ordenador que está usando es precisamente fruto de esa ciencia. El premio Nobel del 2007 es otro ejemplo más de cómo la ciencia se emplea en hacer avanzar la sociedad.

El propio nombre ya es bastante descriptivo de qué se trata: magnetorresistencia, (GMR en sus siglas en inglés) resistencia a la corriente eléctrica inducida por magnetismo. La magnetorresistencia ya fue descubierta en 1856. Sin embargo, el efecto era tan sólo de una variación del 5%. Hubo que esperar hasta 1988 para encontrar este mismo efecto, en mayores proporciones (GMR), y hasta 1993 para encontrar la Magnetorresistencia Colosal, cuyo efecto es aún más notable que la de la GMR. Con estos descubrimientos, aparece lo que se llama spintrónica, que no es otra cosa que aprovechar el spin del electrón para fabricar dispositivos.

El descubrimiento de Fert y Grünberg fue hecho a partir del uso de sandwichs magnéticos: Entre dos láminas ferromagnéticas, introducían otra de un material no ferromagnético. Fert y Grünberg emplearon concretamente hierro (ferromagnético) y cromo (paramagnético).

Los materiales ferromagnéticos poseen la capacidad de imantarse en el sentido de un campo magnético aplicado lo suficientemente intenso. El material paramagnético en cambio no. El descubrimiento en cuestión fue que al imantar las láminas ferromagnéticas en sentidos contrarios (antiparalelos), y hacer pasar una corriente eléctrica a través de todas las capas, la resistencia era mucho mayor que cuando las capas ferromagnéticas estaban imantadas en direcciones paralelas. Y estas variaciones eran de hasta un 80%, dependiendo del espesor de la capa no ferromagnética (alrededor de 1 nanometro, 1•10-9metros. Aproximadamente, tres o cuatro átomos de cromo).

Los electrones tienen la propiedad de spin, una especie de momento magnético interno, que se orienta en la dirección un campo magnético externo, o la contraria. En un material no ferromagnético, esta alineación es del 50% en cada caso. Al pasar al material ferromagnético, si el spin coincide con la dirección de la magnetización del material, el electrón sufrirá menos dispersión (interacciones con el material que le desvían de su trayectoria), y tendrá una menor resistencia a atravesarlo. Si la alineación es contraria, ocurrirá lo opuesto: mayor cantidad de interacciones, y mayor resistencia a que el electrón atraviese la lámina ferromagnética.

¿Cómo se aplica esto a un disco duro? Si partimos del sandwich de Fe/Cr/Fe, y entran los electrones por un lado, la mitad tendrá spin en una dirección, y la otra mitad en otra. Si las dos láminas de Fe están alineadas, entonces, la mitad de los electrones atravesará todo el sandwich sin problemas, y la otra mitad se dispersará en alguna de las dos capas. Sin embargo, al invertir el sentido del campo magnético, en la última lámina, todos los electrones (tanto los de un spin, como los del otro) atravesarán en algún momento una de las capas cuyo campo magnético no está alineado con el spin del electrón, y todos sufrirán resistencia a su paso. De esta forma se obtiene finalmente una corriente eléctrica alta (baja resistencia), o una corriente eléctrica baja (alta resistencia), o lo que es lo mismo, 1’s y 0’s, que es con lo que trabajan los ordenadores.
Vía wikipedia. FN=FerroMagnético; NM=No Magnético

Un disco duro, o una memoria, contiene una gran cantidad de pequeñas celdas de estos sandwichs, con las orientaciones de las láminas ferromagnéticas adecuadas para dar los 0’s y 1’s de los bits que forman los bytes.

Así que ya ven. Un fenómeno físico y una aplicación práctica.

Fuente:

Magnetoresistencia gigante

martes, 17 de marzo de 2009

Pantallas interactivas tridimensionales

La introducción de las pantallas interactivas tridimensionales en los pequeños ordenadores, ordenadores de bolsillo y PDA´s en los próximos años permitirá a los desarrolladores de software para estos equipos todo un mundo de posibilidades a cambio de desarrollar por parte del usuario nuevas habilidades .

Imaginemos que tengamos diez pantallas interactivas capaces de entender nuestra ordenes superpuestas en los primeros diez centimetros de altura a partir de la pantalla propiamente dicha.

La pantalla detecta la altura a la que se encuentra nuestro dedo situado entre uno y diez centimetros y en función de esa altura, el panel de ordenes es distinto. No es necesario tocar la pantalla para generar una actuación del " ratón" y la pantalla tridimensional inteligente es capaz de detectar la velocidad de aproximación del dedo diferenciando entre nuestra voluntad de cambiar el panel de ordenes o de ejecutar aquella en cuya pantalla nos encontramos.

Todo un mundo de posibilidades se abre con la introducción de esta tecnologia dirigida a hacer mas vesatil y operativa la actuación en pequeños ordenadores, elementos que cada dia convivirán mas con nosotros.

En el futuro las pantallas interactivas tridimiensionales formarán parte de nuestro mundo y veremos al obsoleto "ratón" convertirse en simples movimientos de dedos.

¿Que nos impide pasar a usar dos dedos al mismo tiempo y situarlos a distintas alturas para lograr ordenes mas complejas? ¿ Porque no tres?

En unos pocos años, los sistemas de interacción hombre-máquina verán una evolución equivalente a la introducción del "ratón " en los ordenadores ocurrida hace unas pocas décadas multiplicada por cien permitiendo un uso mucho mas efectivo de los pequeños ordenadores de bolsillo.

Imaginemos un Autocad con este sistema de interacción honbre-máquina......., o programar algo en C++ con diez niveles de capas accesibles en función de la altura de los dedos sobre el teclado .

Es evidente que los futuros programadores todavia no saben ni siquiera con que elementos van a tener que programar pero la evolución tecnológica exigirá de ellos mayor rapidez en la adaptación al cambio tecnológico del que hemos vivido en los ultimos años.

"Invasor, el último" es un buen argumento para aceptar la inmigración, todos hemos sido invasores en algun momento de una tierra que antes no fue nuestra.

De la misma manera, "Inventor, el último" podría ser la frase que hiciera a los jovenes de hoy, tan familiarizados con la tecnologia actual que las generaciones anteriores tienen tanta dificultad en digerir, sentirse extraños en su propio medio y verse desbordados por un futuro que nada tendrá que ver con nuestro presente.

Cada vez será mas necesario para una adecuada superviviencia profesional el reciclaje continuo
para poder sobrevivir en una sociedad cada vez mas cambiante. Sociedad que no será ni mejor ni peor que la que nos ha tocado vivir, sino, simplemente, diferente.

Pantallas interactivas tridimensionales

viernes, 27 de febrero de 2009

El presente de las comunicaciones : WIMAX , LTE ,

Un mundo conectado via red inalambrica de microondas : WIMAX, LTE ..., dá igual, la tecnologia orthogonal frequency division multiplexed access (OFDMA) permitirá llevar a cabo en un futuro inmediato la verdadera revolución en comunicaciones. Internet ya es adolescente y su etapa de adulto esta a punto de empezar.

En breve veremos, a precios irrisorios, imagenes de cualquier parte del planeta en nuestra PDA desde la camara WEB de la PDA o telefono movil de quien esté en el otro punto del mismo, podremos hablar con él y nos podrá enviar videos del momento a nosotros, o subirlos a la red para permitir accesos indiscriminados.

Los bajos costes de implementación de las redes inalambricas marcarán el estado de adulto de la World Wide Web que cubrirá todo el planeta dando un vuelco a las estructuras económicas de las compañias de comunicaciones y a los sistemas de comunicación.

Las herramientas de trabajo de profesionales tales como periodistas, reporteros, fotógrafos etc. cambiarán por completo permitiendo a estas profesiones pasar a ocupar un primer plano en el mundo.

La traida y llevada libertad de expresión vá a generar muchos puestos de trabajo a caballo de la evolución de las tecnologias de la comunicación.

La televisión por internet crecerá a niveles inimaginables y veremos a un pequeño grupo de profesionales montar su propia cadena de TV ofreciendo puntos de vista alternativos transmitiendo a todo el mundo.

La musica y videos online harán desaparecer el formato CD , DVD de nuestras vidas y nuestra PDA o Ordenador Portatil de Mano pasará a ser un elemento imprescindible en nuestro acontecer diario.

Si, el siglo XXI se plantea , en comunicaciones, mucho mas apasionante que lo que ha sido la segunda mitad del siglo XX.

El futuro de WIMAX


Blog WIMAX

domingo, 22 de febrero de 2009

¿Bicicletas eléctricas? Solo si los arquitectos quieren ....

Si la poca energía que necesita una bicicleta para mover su masa más la del conductor que la conduce rodando por circuitos planos se puede conseguir del sol gratis ¿Porque no financiar con dinero público este tipo de instalaciones que favorecerían el desplazamiento limpio en circuitos urbanos?

La respuesta la tienen los arquitectos. Aunque parezca extraño, las relaciones causa-efecto también funcionan en este tipo de entramados pseudo-técnicos y para que esta vieja idea pueda llevase a la practica es necesario que la mentalidad de los arquitectos evolucione.

No podemos usar bicicletas sin un desarrollo urbanístico adecuado y son los arquitectos urbanistas junto al resto de técnicos que intervienen en una planificación urbana los que tienen que saber argumentar a los políticos los beneficios de un urbanismo completamente distinto al que se viene practicando en España.

La evolución de la economía y el aumento de la calidad de vida de los próximos veinte años está mas ligado a que tengamos la suerte de tener arquitectos urbanistas inteligentes que a un desarrollo mas o menos exagerado en el campo de la ciencia o la tecnologia.

En estos momentos, los estudios de los que estamos mas necesitados, la carrera con mas futuro y con perspectivas mas brillantes, contrariamente a lo que parece, es la Arquitectura en su especialidad urbanistica.

Necesitamos gente inteligente que diseñe nuestros espacios vitales de otra manera y lo sepa hacer dentro de la estructura económica que tenemos, entre otras cosas porque no tenemos otra.

Saber encontrar una via económica a un urbanismo mas abierto, ecológico y respetuoso con el medioambiente es uno de los mayores retos para los futuros arquitectos que, en este campo, lo tienen todo por hacer.

La necesidad de nuevas ideas en urbanismo es apremiante y la necesidad de hacerlo viable lo es más.

No valen para nada las nuevas tecnologías si no convivimos con ellas desde una mejor calidad de vida sin ruidos y sin polución ambiental, sin tropezarnos con el vecino a cada paso y sin interferir en la vida de los otros continuamente como hace el noventa por cien de los españoles en estos momentos en todas nuestras ciudades medias y grandes.

Las bicicletas solares pueden ser importantes en un futuro mas o menos cercano pero necesitamos que esos futuros arquitectos brillantes que todavia están en la Universidad entiendan bien lo que se espera de ellos , que no es ni mucho menos diseñar fincas de diez alturas con pisos de sesenta metros cuadrados.


Bicicletas eléctricas solares, las bicicletas del futuro.

domingo, 8 de febrero de 2009

Las comunicaciones del presente

Celular modems gain favor

Dentro de nada vamos a ver como las tarjetas de los teléfonos móviles incorporan la función de módem. Es decir, que comunicando cualquier PC con el teléfono móvil que todo el mundo tiene, via bluetooth, por ejemplo, se va a poder dar cobertura de internet inalámbrica al PC de cada cual sin tener que usar el pequeño módem auxiliar como se viene haciendo ahora e independientemente del teléfono que se use ya que la función de módem residirá en la propia tarjeta que nos facilitará la empresa de comunicaciones con la que contratemos.

Esta novedad nos abre un sin fin de posibilidades en el mundo de las comunicaciones. La primera y mas importante, el poder desligarnos del cable y a partir de ahí, el poder tener internet en cualquier lugar donde tengamos cobertura de móvil a un precio razonable. Por otro lado, el cambio es mucho mas importante en el aspecto voz mas que en el de datos . Podremos establecer comunicaciones IP entre teléfonos móviles usando el potencial de internet. Eso es tanto como decir que todos los operadores alternativos a telefónica van a poder dar servicio de voz y datos a precios muy competitivos.

Si unimos esta funcionalidad a la implantación de centralitas virtuales de teléfonos y analizamos la reducción de costes que la implantación de estas tecnologías van a suponer para las empresas, nos daremos cuenta de la oportunidad de negocio que estas tecnologías representan en el momento actual.

Es un hecho que muchas empresas existentes basadas en los sistemas de comunicación de la década pasada van a tener que reinventarse para poder sobrevivir.

Al mismo tiempo, la evolución de las funcionalidades de los teléfonos móviles está asegurada.

Los teléfonos, las agendas electrónicas y las PDA´s actuales serán historia dentro de muy poco cuando podamos tener on-line en cada teléfono toda la información digital que se nos pueda ocurrir.

Esta tecnologías van, por otro lado, a hacer que se vuelvan a inventar los Grandes Ordenadores, sistemas super potentes a los que tener acceso desde pequeñas CPU´s residentes en las siguiente generaciones de teléfonos. CPU´s centralizadas a las que dotarán de una potencia de proceso y de una memoria que pasará a ser innecesaria que tengan estos pequeños equipos de comunicación o como se llamen en el futuro pero que podrán disponer de ella multiplicando su potencial por un factor imprevisible.

Las connotaciones de privacidad de la información y usuario son temas que se nos ocurren enseguida. Es eviente que tendemos hacia una apertura de la información que hoy consideramos privada y que tendrá que ser seleccionada en su calificación en un futuro inmediato.

Tampoco debemos de caer en el error de pensar que la comunicación por cable desaparecerá. La prudencia nos dice que debemos de mantener siempre una vía alternativa y dejar perder la red de cableado existente seria del genero tonto. En cualquier momento la podemos necesitar pero es evidente que su funcionalidad y costo se verá reducida en proporción al pasar a ser simplemente un sistema de emergencia.

La aparición de los routers ADSL inalámbricos que permitan conectarse a Internet a varios ordenadores a partir del modem incorporado en una tarjeta de teléfono movil deberá de ser inmediata para poder tener el mismo servicio que se tiene actualmente en las viviendas unifamiliares.

Es evidente que una nueva generación de los sistemas de comunicación está llamando a nuestra puerta y que para ellos, el futuro ya ha llegado.

sábado, 7 de febrero de 2009

Una entrevista con Ignacio Cirac en el 2006, Premio Principle de Asturias de Investigación

Ignacio Cirac, físico: «La comunicación en el futuro será por teletransportación»
El Premio Príncipe de Asturias de Investigación ha sentado las bases para los futuros ordenadores cuánticos, relacionados con el mundo microscópico


Ignacio Cirac, físico: «La comunicación en el futuro       será por teletransportación»
CIENTÍFICO. Ignacio Cirac dirige un equipo de investigadores en el Instituto de Óptica Cuántica Max Planck de Múnich. / EFE



UN CIENTÍFICO PRECOZ
Juan Ignacio Cirac Sasturain nació en Manresa (Barcelona) en 1965. Se licenció en Física Teórica por la Universidad Complutense de Madrid en 1988 y se doctoró en 1991.

En 1993 entró como investigador en el Laboratorio de Astrofísica de la Universidad de Colorado y, tres años después, se incorporó a la de Innsbruck (Austria).

Ha dirigido investigaciones en Harvard, Hamburgo, California, Oxford, Hannover y París. Es miembro de la Sociedad Max Planck alemana desde 2001. Desde hace dos años lleva la dirección del Instituto Max Planck de Óptica Cuántica.

Ha sido galardonado con el Premio Príncipe de Asturias de Investigación Científica y Técnica 2006.




Una conversación con Ignacio Cirac sobre sus investigaciones científicas acerca de la computación cuántica es algo así como caminar por la selva amazónica. Una experiencia emocionante pero peligrosa por desconocida. Cada pregunta resulta un paso inseguro sobre las arenas movedizas de la física. Él parece avezado a jugar en una posición dominante en cuanto a conocimiento cuántico. Se muestra compasivo y esquiva profundizar en las explicaciones técnicas, haciendo que el itinerario por la selva amazónica de la ciencia sea fácil y seguro.

Dirige el Instituto de Óptica Cuántica Max Planck de Múnich desde hace dos años. Él y su equipo tratan de descubrir las leyes que gobiernan el mundo microscópico, un reino en el que átomos y fotones ponen las reglas y cuyas aplicaciones, en algunos casos, son todavía imposibles de predecir. La expedición de Cirac hacia estos territorios inexplorados ha dado ya frutos con los que equipos de investigación de todo el mundo trabajan. El más jugoso, las bases para la creación de los futuros ordenadores cuánticos, que le ha servido para ganar el Premio Príncipe de Asturias de Investigación Científica y Técnica 2006.

-Ha trabajado en Colorado, Austria, California, Oxford ¿La investigación científica exige cambiar de ciudad permanentemente o es una persona inquieta?

-Hay que moverse mucho, es una necesidad. Tienes que colaborar con gente que está trabajando en cosas interesantes y eso sólo se consigue viajando.

-El premio ha valorado su investigación acerca de la teoría cuántica de la información. Para los profanos: ¿sería algo así como una nueva forma de transmitir y procesar información?

-Eso es. Se basa en las leyes de la mecánica cuántica que son las que gobiernan el mundo microscópico. Lo importante es que es algo distinto. Todos estamos acostumbrados a ver que los ordenadores van más deprisa: se hacen circuitos más rápidos, más pequeños, pero siempre con las mismas leyes. La información cuántica propone hacer cosas completamente imposibles con los métodos actuales. La idea es cambiar las leyes para hacer algo nuevo.

Competir con Bill Gates

-De modo que quiere buscarle la ruina a Bill Gates

-(Risas..) A menos que él se incorpore a la física cuántica

-Los prototipos que existen ahora de ordenadores cuánticos ocupan una habitación mientras que el futuro camina hacia la nanotecnología. ¿No es una contradicción?

-Los ordenadores cuánticos realmente están muy relacionados con la nanotecnología, que lo que intenta es controlar el mundo del nanómetro, es decir, el mundo microscópico. El problema es que en él, las reglas del juego son distintas. Tenemos que dominar la mecánica cuántica y para ello necesitamos equipos y sistemas electrónicos que ocupan mucho. Podemos hacer una analogía con cómo eran los ordenadores hace cincuenta años. Los ordenadores cuánticos ahora ocupan un laboratorio entero en el que hay un montón de lentes, láseres, mesas ópticas, aparatos electrónicos Los modelos del futuro no tendrán nada que ver con los prototipos actuales.

-¿Cuál es el ordenador cuántico más potente que se ha conseguido hasta la fecha?

-Los más complicados con ocho bits cuánticos se mostraron por primera vez el año pasado, pero todavía están lejos de la potencia que necesitaríamos. El objetivo es ver cómo hacer ordenadores cuánticos mayores que puedan realizar operaciones que los que tenemos no hacen, hacia ahí vamos. Hay algunas tareas que sabemos que probablemente serán posibles dentro de 5 ó 10 años y otras para las que todavía falta muchísimo.

-¿Qué tareas podríamos hacer con ellos?

-Están relacionadas con la simulación de materiales a bajas temperaturas. Una de las aplicaciones de los ordenadores cuánticos es hacer cálculos para el desarrollo de materiales. Esto llegará relativamente pronto.

-Entonces hay aplicaciones todavía imposibles de predecir...

-Es difícil conocer una aplicación directa. Hoy en día utilizamos ordenadores suficientemente rápidos para hacer muchas cosas. Pero existen también superordenadores en Barcelona, Japón y Estados Unidos. Los científicos los utilizan para investigar materiales para coches, cohetes, predicción del tiempo Las aplicaciones llegan por donde uno menos se lo espera. Lo que ahora estamos investigando quizás en 20 años se pueda utilizar no sólo para ordenadores cuánticos sino también para medicina.

-Ha dicho que la famosa teletransportación de Star Trek ya es posible. Han conseguido teletransportar 500 fotones a una distancia de medio metro. ¿Se puede teletransportar cualquier cosa?

-En principio sí. Pero teletransportar no significa que la materia desaparezca de un sitio y aparezca en otro. En el transporte cuántico sólo cambia la información. Desaparece información de un lugar y aparece en otro.

Pagar la hipoteca

-¿Podemos decir que la comunicación del futuro será mediante teletransportación?

-Creo que es posible. El transporte no va a ser por teletransportación pero la comunicación sí.

-¿Le va a llevar toda la vida descubrir sólo algunas de las posibilidades de la computación cuántica?

-Sí, creo que sí.

-¿No desanima?

-No, porque quizás se descubra una aplicación en biología o en química. Sería un mundo para nosotros.

-El Premio Príncipe de Asturias, además del reconocimiento internacional, tiene una compensación económica de 50.000 euros. ¿Ya sabe en qué invertirlos?

-No lo he pensado, pero como la mayoría de los españoles tengo una hipoteca (risas) Creo que va a ayudar bastante.

Articulo fuente: Periodico Ideal , 25 de octubre de 2006

Página personal de Ignacio Cirac

miércoles, 4 de febrero de 2009

Reinventemos el seiscientos

Reinventemos el seiscientos.

El ultimo seiscientos


Una gran parte de las acciones gubernamentales dirigidas a paliar o mitigar al menos la crisis actual van dirigidas al sector I+D de la energía y sus aplicaciones inmediatas. Energía solar, energía eólica, biodiesel, energia de la biomasa, energia de las olas del mar, energia térmica de la corteza terrestre etc. Es evidente que la energia es nuestro punto flaco pero, desde mi punto de vista, hay otro punto flaco importante al que no estamos prestando atención.

En la economia familiar, que a la postre es la que esta sufriendo mas las consecuencias de lo que nos está ocurriendo, yo diria que ocupa el segundo lugar en importancia , aunque directamente ligado con el primero el capitulo TRANSPORTE.

Si, el transporte, entendiendo como tal todos los conceptos que intervienen en él y no solo el consumo energético del mismo sino, la compra del medio de transporte familiar, su mantenimiento, conservación y todo lo que conlleva.

La inversión estatal en el transporte público ha tenido un impulso importante en los últimos años y , aunque todo es mejorable, la inversión ha sido muy grande. No van mis tiros por ahi sino por el capitulo des transporte familiar, que siempre existirá aunque el transporte público mejore a los limites que seria deseable.

El sector del automovil, tan necesitado de financiación en estos dias para sobrevivir, ofrece a los usuario modelos que oscilan entre los 10.000 y los 25.000 euros para un ciudadano medio , modelos que tienen una vida media de 200.000 Kms y cuya compra y mantenimiento, sin considerar el capitulo energético, se lleva una buena parte de la economia familiar.

Por otro lado, el estilo de vida actual en España nos obliga a considerar el transporte individual una necesidad para poder acceder a nuestros puestos de trabajo y no un articulo de placer y relajación como podria ocurrir en la España de los cincuenta, sesenta y setenta.

La mayor parte del uso del automovil familiar se efectua por un UNICO USUARIO en su desplazamiento al lugar de trabajo, siendo necesario en las familias actuales el tener dos, tres o más vehiculos a veces en la misma unidad familiar.

Yo diria que no estamos pensando en una alternativa adecuada.

¿ Porque no podemos tener un vehiculo español uniplaza suficientemente seguro con un consumo infimo que nos permita recorrer cincuenta o cien kilometros a la velocidad de crucero que permiten nuestras ciudades y cuyo coste no pase de 1000 euros?

El coste de mantenimiento se reduciria en proporción y al coste de la energia consumida le ocurriria lo mismo.

Multipliquemos el ahorro individual que ese posible invento aportaria a las economias familiares por el porcentaje de usuarios que nos de la gana que entraria en este juego y veremos los resultados abultados que se podrian obtener.

¿Porque no reinventamos el seiscientos?,

Un utilitario que cubra nuestras necesidades de transporte individual y que pudiera dar a España lo que perdió cuando desapareció la marca Hispano-Suiza.

¿Es que nuestros ingenieros no lo saben hacer? Por supuesto que si, ¿Es que España no se lo puede permitir? , pues yo creo que de sobra.

¿Tendremos que reinventar el Instituto Nacional de Industria primero?, bueno, si no queda mas remedio.

No estamos solos en esta idea y hay que tener en cuenta que el coche utilitario monoplaza del futuro inmediato tendría que incorporar todas las nuevas tecnologías que estoy seguro de que mucha gente en España conoce de sobra o sino, estaría en condiciones de aprenderlas.

En fin, si esta elucubración sirve para despertar la inquietud en alguien, me daré por satisfecho.

Ya hay algun espejo en el que mirarse para mejorar las ideas exisentes.

The next evolution in transportation

domingo, 1 de febrero de 2009

Identificación biométrica, la llave del presente, otra contradicción entre tecnologia y progreso

Elvira Fernandez consideraba en el año 2000 la identificación biométrica como la llave del futuro. Hoy podemos ver como esta tecnología se ha ido implantando en más y mas sistemas de accesos como un sistema fiable de identificación de personas.


Las aplicaciones de identificación de caras esta empezando a ser aplicada en multitud de instalaciones de seguridad en aeropuertos, cámaras de vigilancia de calles en grandes ciudades, etc. Cada día estamos mas vigilados y los arquitectos ya incluyen estos sistemas como un capitulo habitual en sus proyectos de construcción de edificios especiales.


La tecnología trabaja en esta ocasión en contra del ser humano persiguiendo sus movimientos y metiéndose en su vida. Dentro de poco se podrá hacer un recorrido virtual de una mañana de alguien sin mas que seguir su trayectoria real a través de sus identificaciones efectuadas por estos medios en los distintos ambientes donde haya estado, cruces de calles, grandes almacenes o simplemente, tiendas de tamaño medio en las que dentro de poco veremos estos sistemas funcionando como una nueva etapa en sus procedimientos de seguridad, y sino, al tiempo.


Otra contradicción más entre tecnología y progreso a añadir a la ya larga lista de situaciones en las que el desarrollo tecnológico no trabaja a favor del hombre y nos hace sentir y estar demasiado controlados.


Reproduzco el articulo de Elvira Fernandez aparecido en Ciencia Digital .


Identificación biométrica, la llave del futuro


Como salidas de una película de espías o de ciencia-ficción las nuevas tecnologías de identificación por medio de sistemas biométricos se perfilan como la futura llave que nos abrirá todas las puertas. El santo y seña del siglo XXI será nuestro propio cuerpo, nuestras características físicas, únicas y distintas de las de cualquier otro ser humano. Pronto la identificación por huellas dactilares, geografía de la mano, reconocimiento facial, del iris o de la voz se convertirán en los nuevos passwords de entrada a múltiples sistemas, desde el acceso a cuentas bancarias, vehículos, áreas laborales y archivos informáticos hasta, ¿por qué no?, a nuestra propia vivienda.


Identificación, vigilancia, control, no son conceptos del mundo moderno, sino que caminan de la mano de la historia del hombre. Ya en el antiguo Egipto se llevaban registros de población que facilitaban el control fiscal o militar y son bien conocidos también los Censos Israelitas, que datan del siglo XV A.C. y que permitían, entre otras cosas, la identificación de los componentes de las tribus nómadas para su posterior reagrupamiento. Desde entonces hasta hoy la identificación personal se ha basado tradicionalmente en la posesión de llaves, tarjetas, claves, de palabras o números, como el de la seguridad social, el carné de identidad, el de conducir, los códigos de barras, etc. Sin embargo, el ser humano posee características que lo hacen único: las huellas dactilares, la voz, el iris, el rostro o el ADN, constituyen la contraseña más segura que existe.

La verificación biométrica por medio de características físicas únicas comenzó al final del siglo XIX con las huellas dactilares y desde entonces su uso se ha visto generalizado sobre todo por los cuerpos de seguridad. Hoy, sistemas automáticos que escanean y digitalizan huellas han llevado esta técnica mucho más allá de las investigaciones policiales y se pueden encontrar todo tipo de dispositivos biométricos para controlar los accesos a sistemas informáticos, garantizar la seguridad en transacciones bancarias o simplemente acceder a nuestro dinero, como es el caso de los cajeros automáticos que reconocen el iris o la retina, de los que ya existen algunos prototipos instalados en las calles de Estados unidos y Gran Bretaña.

Ante la necesidad de sistemas cada vez más seguros los científicos han recurrido a la Biometría aplicada a la verificación de la identidad de un individuo de forma automática, empleando sus características biológicas, psicológicas y de conducta. Esta identificación, que es la única que permite una autenticación individual y exacta, utiliza ciertos patrones fisiológicos, digitalizados y almacenados. Los rasgos comúnmente usados incluyen el modelo de huellas digitales, de vasos sanguíneos en la mano o retina, del rostro, el tamaño, forma y largo de los dedos e incluso el olor.


Cómo funcionan

Los sistemas biométricos se componen de un hardware y un software; el primero captura la característica concreta del individuo y el segundo interpreta la información y determina su aceptabilidad o rechazo, todo en función de los datos que han sido almacenados por medio de un registro inicial de la característica biométrica que mida el dispositivo en cuestión. Ese registro inicial o toma de muestra es lo que determina la eficacia del sistema. En el caso de las huellas dactilares, un usuario coloca el dedo en un sensor que hace la lectura digital de su huella, después, el programa guardará la información como un modelo; la próxima vez que ese usuario intente acceder al sistema deberá repetir la operación y el software verificará que los datos corresponden con el modelo. El mismo principio rige para la identificación por el iris/retina, con ayuda de videocámara, el rostro, la mano completa, etc. Las tasas de exactitud en la verificación dependen en gran medida de dos factores: el cambio que se puede producir en las personas, debido a accidentes o a envejecimiento, y las condiciones ambientales, como humedad en el aire, suciedad y sudor, en especial en la lectura que implique el uso de las manos.

En cuanto a qué partes del cuerpo son las más adecuadas para su utilización en identificación biométrica, aunque en principio cualquiera sería susceptible de ser usada, para su elección se atiende a criterios prácticos concretos. Lo ideal es que se trate de una característica física robusta, es decir, no sujeta a grandes cambios; que sea lo más distintiva posible en relación con el resto de la población, que sea una zona accesible, disponible y, por supuesto, aceptable por el usuario que, en ocasiones, puede llegar a percibir algunos dispositivos biométricos como excesivamente intrusivos.

Por último, hay que hacer una distinción entre aquellos dispositivos que miden el comportamiento y los que miden una característica fisiológica. Entre los primeros se encuentran el análisis de la dinámica de la firma y el del golpe en el teclado; los segundos incluyen la huella dactilar, la geometría de la mano y el dedo, la termografía facial y la exploración del iris o la retina. El reconocimiento de la voz es un parámetro biométrico basado en ambos análisis, el fisiológico que determina la zona vocal y el de comportamiento del lenguaje y las palabras usadas. Evidentemente aquellos dispositivos que se basen en el comportamiento requieren de la cooperación del usuario, mientras que se puede identificar fisiológicamente a cualquiera sin su cooperación e incluso sin su conocimiento, como en el caso de la imagen captada por una videocámara.


Tipos de sistemas y sus aplicaciones

Cada sistema biométrico utiliza una cierta clase de interfaz, un sensor o mecanismo de captura determinado y un software específico. La identificación por geometría de la mano o huellas digitales, la más extendida, crea una imagen digital tridimensional, que es capturada, calibrada y guardada en un archivo. Para la identificación por el ojo existen dos sistemas: topografía del iris, identificando en pocos segundos más de 4.000 puntos, y topografía de la retina, midiendo con luz infrarroja de baja intensidad 320 puntos predefinidos en el diagrama de las venas

El reconocimiento facial compara las características faciales con una imagen previamente escaneada, lo mismo que la identificación por voz con un patrón pregrabado, que analiza la presión del aire y las vibraciones sobre la laringe. La identificación por firma mide el tiempo, la presión, la velocidad, el ángulo de colocación del lápiz y la velocidad de las curvas, todo a través de un lápiz óptico con el que la persona firma en un soporte específico o pad. Por último, los sensores de olor, aún en desarrollo, utilizan un proceso químico similar al que se produce entre la nariz y el cerebro, sin que los perfumes sean capaces de enmascarar el olor particular de cada uno.

La identificación biométrica experimenta una aceptación creciente debido a la reducción de los costos de los dispositivos y a su alta confiabilidad. Por ello, no se restringe su uso a aplicaciones de alta seguridad, como bancos e instalaciones gubernamentales, sino que también se extiende a las empresas, para el control de clientes y empleados y en el acceso a oficinas y plantas comerciales e industriales. Aunque la lista sería interminable, algunas de las aplicaciones de la identificación mediante sistemas biométricos serían los servicios públicos, servicios policiales, penitenciarios, instituciones de salud, permisos de conducir, inmigración, registro de armas, controles de acceso, tiempo y asistencia, seguridad de redes informáticas, comercio electrónico, educación, etc.


La huella genética

Además de los diversos proyectos de muchos países para la construcción de bases de datos de huellas digitales, para control de la inmigración, por ejemplo, en EE.UU. tienen planes para hacer lo mismo aplicado a la identificación de pacientes hospitalarios. Por otro lado, ya existe la tecnología para incorporar diminutos dispositivos de reconocimiento biométrico a objetos de uso cotidiano, tales como teléfonos móviles, ordenadores portátiles, teclados, tarjetas bancarias, armas de fuego, el volante del coche, etc.

Con toda seguridad, la tecnología también llegará a desarrollar un sistema de identificación automática por el ADN y, de hecho, la viabilidad de sistemas basados en el análisis del ADN es una de las líneas de investigación abiertas en la actualidad.

Por otro lado, muchos estados americanos ya disponen de la base legal para tomar muestras de ADN de los criminales convictos y el propio Departamento de Defensa estadounidense se propone crear un registro de ADN, un banco de datos, con millones de muestras de los miembros de las fuerzas armadas. De ahí a su extensión a la población en general tal vez haya un paso. Sólo faltaría el dispositivo capaz de reconocer en pocos segundos la estructura molecular de un individuo simplemente con tenerlo enfrente. Como toda nueva tecnología, la identificación biométrica plantea ventajas evidentes, pero también riesgos, muchas veces encubiertos, derivados de su mala utilización, como la invasión de la privacidad y el control y la vigilancia exhaustivos que permitiría ejercer sobre los ciudadanos, al más puro estilo orwelliano.

Autor: Elvira Fernández | 2000


articulo fuente de Ciencia Digital


Otras direcciones intersantes sobre este tema


Cross Match

C-VIS

sábado, 31 de enero de 2009

LED´s, luces mágicas que recortaran la factura del alumbrado

‘Magic’ lights to slash household electricity use

29 January 2009

A new way of making LEDs could see household lighting bills reduced by up to 75% in five years time, thanks to research at Cambridge University.

The new LEDs use Gallium Nitride (GaN), a man-made semiconductor that emits a brilliant bright light but uses very little electricity. Until now high production costs have made GaN lighting too expensive for widespread use in homes and offices.

The Cambridge University Centre for Gallium Nitride, with funding from the Engineering and Physical Sciences Research Council (EPSRC), has developed a new way of making GaN which could produce LEDs for a tenth of current prices.

The new technique grows GaN on silicon wafers, which achieves a 50% improvement in cost and efficiency on previous approaches to grow GaN in labs on expensive sapphire wafers, used since the 1990s.

Based on current results, GaN LED lights in every home and office could cut the proportion of UK electricity used for lights from 20% to 5%. A reduction equivalent to the output of eight power stations.

A GaN LED can burn for 100,000 hours and therefore, on average, only needs replacing after 60 years. And, unlike currently available energy-saving bulbs, GaN LEDs do not contain mercury eliminating the environmental problems posed by their disposal. GaN LEDs also have the advantage of turning on instantly and being dimmable.

Professor Colin Humphreys, lead scientist on the project said: "This could well be the holy grail in terms of providing our lighting needs for the future. We are very close to achieving highly efficient, low cost white LEDs that can take the place of both traditional and currently available low-energy light bulbs. That won't just be good news for the environment, it will also benefit consumers by cutting their electricity bills."

GaN LEDs, used to illuminate landmarks like Buckingham Palace and the Clifton Suspension Bridge, are also appearing in camera flashes, mobile phones, torches, bicycle lights and interior bus, train and plane lighting.

Parallel research is also being carried out into how GaN lights could mimic sunlight to help 3m people in the UK with Seasonal Affective Disorder (SAD).

Ultraviolet rays made from GaN lighting could also aid water purification and disease control in developing countries, identify the spread of cancer tumours and help fight hospital 'super bugs'.

Articulo fuente: Sección de noticias de la Universidad de Cambridge