Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
viernes, 6 de abril de 2012
El lugar más silencioso del planeta
La Anechoic Chamber está situada en los Orfield Laboratories de Minneapolis. Absorbe el 99.99 % del ruido que le llega, convirtiéndola en el lugar más silencioso del planeta. La mayor cantidad de tiempo que una persona ha resistido en su interior no llega a los 45 minutos. Porque, claro, que la sala absorba el silencio no significa que el que está dentro no escuche nada: se escucha a sí mismo, a su cuerpo. No sólo los latidos del corazón, que al fin y al cabo los percibimos en casi cualquier lado, sino cosas más "ocultas" y que normalmente agradecemos que estén ocultas. Parece que la banda sonora del cuerpo es sencillamente insoportable.
Visto en Nopuedocreer
sábado, 10 de marzo de 2012
Inteligencia artificial: 5 robots diseñados para ayudarnos en nuestro día a día
Fuente: Blog ALT1040
Hoy en día, gran parte de los trabajos que se realizan en el campo de la robótica tienen como objetivo ayudar al ser humano en la realización de tareas complejas o liberar a éste de la realización de las mismas. Los robots son utilizados para realizar reparaciones, acceder a sitios de difícil acceso (ya sea físico o por condiciones ambientales), realizar tareas peligrosas, transportar carga o, incluso, asistir a personas impedidas.
Prácticamente cada semana surgen noticias alrededor del mundo de los robots en las que podemos conocer proyectos que se desarrollan a lo largo del planeta y que, en su gran mayoría, tienen como objetivo construir un sistema robótico que asista a un humano en la realización de una tarea o que evite por completo que éste deba ejecutarla, aportando además precisión, disponibilidad, etc. Si bien el número de proyectos es elevado, creo que podríamos tomar una muestra de cinco asistentes robots que mejoran el desempeño de algunos trabajos o, incluso, pueden mejorar nuestra calidad de vida.
Dentro de todos los ámbitos en los que se puede aplicar la robótica, la medicina es uno de los entornos en los que mejor se han recibido este tipo de dispositivos. Gracias al uso de sistemas robóticos en los quirófanos, se han podido depurar muchos procedimientos quirúrgicos haciéndolos mucho menos invasivos y, por tanto, acortando el tiempo de convalecencia del paciente. Uno de los sistemas quirúrgicos más conocidos es el robot cirujano Da Vinci que, desde su lanzamiento en 1999, está presente ya en más de 1.200 quirófanos de todo el mundo.
El sistema Da Vinci consta de una consola que es controlada por el cirujano y con la cual maneja los instrumentos del robot, que se sitúa en la mesa de operaciones en la que se encuentra el paciente. Esta consola se sitúa alejada de la mesa, por tanto, el médico opera al paciente, prácticamente, a distancia puesto que maneja los brazos robots y la cámara del sistema (usando la técnica de laparoscopia) para realizar la operación.
Cuatro brazos robóticos y una cámara de alta definición manejados por control remoto ofrecen al profesional de la cirugía un asistente robótico de gran precisión con el que realizar operaciones poco
Hoy en día, gran parte de los trabajos que se realizan en el campo de la robótica tienen como objetivo ayudar al ser humano en la realización de tareas complejas o liberar a éste de la realización de las mismas. Los robots son utilizados para realizar reparaciones, acceder a sitios de difícil acceso (ya sea físico o por condiciones ambientales), realizar tareas peligrosas, transportar carga o, incluso, asistir a personas impedidas.
Prácticamente cada semana surgen noticias alrededor del mundo de los robots en las que podemos conocer proyectos que se desarrollan a lo largo del planeta y que, en su gran mayoría, tienen como objetivo construir un sistema robótico que asista a un humano en la realización de una tarea o que evite por completo que éste deba ejecutarla, aportando además precisión, disponibilidad, etc. Si bien el número de proyectos es elevado, creo que podríamos tomar una muestra de cinco asistentes robots que mejoran el desempeño de algunos trabajos o, incluso, pueden mejorar nuestra calidad de vida.
Robot cirujano Da Vinci
Dentro de todos los ámbitos en los que se puede aplicar la robótica, la medicina es uno de los entornos en los que mejor se han recibido este tipo de dispositivos. Gracias al uso de sistemas robóticos en los quirófanos, se han podido depurar muchos procedimientos quirúrgicos haciéndolos mucho menos invasivos y, por tanto, acortando el tiempo de convalecencia del paciente. Uno de los sistemas quirúrgicos más conocidos es el robot cirujano Da Vinci que, desde su lanzamiento en 1999, está presente ya en más de 1.200 quirófanos de todo el mundo.
El sistema Da Vinci consta de una consola que es controlada por el cirujano y con la cual maneja los instrumentos del robot, que se sitúa en la mesa de operaciones en la que se encuentra el paciente. Esta consola se sitúa alejada de la mesa, por tanto, el médico opera al paciente, prácticamente, a distancia puesto que maneja los brazos robots y la cámara del sistema (usando la técnica de laparoscopia) para realizar la operación.
Cuatro brazos robóticos y una cámara de alta definición manejados por control remoto ofrecen al profesional de la cirugía un asistente robótico de gran precisión con el que realizar operaciones poco
sábado, 25 de febrero de 2012
Universidad alemana diseña un freno inalámbrico y alta velocidad de respuesta
Fuente: ALT1040:

Uno de los sistemas imprescindibles en cualquier vehículo son los frenos; un sistema que permite controlar la velocidad de vehículo gracias a la actuación de algún dispositivo que transforma la energía cinética del vehículo en calor o trabajo. Para que los frenos funcionen es necesario que el conductor de vehículo accione un pedal o pulse un mando cuyo movimiento se transporta a través de un circuito en el que el actuador se activará según la intensidad del movimiento realizado. En la Universidad alemana de Saarland están trabajando en una nueva generación de sistemas de frenada que permita el uso de redes inalámbricas para activar los frenos, sustituyendo así los clásicos circuitos.
Holger Hermanns, catedrático de sistemas fiables y software, ha desarrollado junto a su equipo de investigación un freno de bicicleta que funciona de manera inalámbrica a modo de demostrador para realizar cálculos y pruebas que permitan determinar su viabilidad y confiabilidad para su uso en otro tipo de vehículos, por ejemplo, un tren. La idea del equipo de investigación es evaluar si, por ejemplo, sería posible controlar la velocidad de un tren y activar sus frenos emitiendo una señal desde las vías para, así, accionar los frenos asegurando que el sistema funcionará el 100% de las veces.

El funcionamiento del prototipo es igual que el clásico freno de una bicicleta convencional, apretar con la mano la empuñadura para accionar el freno de disco de la rueda y aplicar la frenada en base a la fuerza aplicada sobre el mando del freno. La diferencia estriba en que, del mando del freno, no sale ningún tipo de cable sino que se envía una señal de radio a un receptor conectado a los radios de la rueda de la bicicleta donde hay un actuador que activa los frenos de disco.
¿Y qué pasa con el tiempo de respuesta? El prototipo actual requiere 250 milisegundos en activarse, es decir, a una velocidad de 30 kilómetros por hora, el ciclista debe reaccionar a 2 metros de distancia del obstáculo, un margen algo ajustado en opinión del equipo y en el que quieren trabajar para su mejora.


Uno de los sistemas imprescindibles en cualquier vehículo son los frenos; un sistema que permite controlar la velocidad de vehículo gracias a la actuación de algún dispositivo que transforma la energía cinética del vehículo en calor o trabajo. Para que los frenos funcionen es necesario que el conductor de vehículo accione un pedal o pulse un mando cuyo movimiento se transporta a través de un circuito en el que el actuador se activará según la intensidad del movimiento realizado. En la Universidad alemana de Saarland están trabajando en una nueva generación de sistemas de frenada que permita el uso de redes inalámbricas para activar los frenos, sustituyendo así los clásicos circuitos.
Holger Hermanns, catedrático de sistemas fiables y software, ha desarrollado junto a su equipo de investigación un freno de bicicleta que funciona de manera inalámbrica a modo de demostrador para realizar cálculos y pruebas que permitan determinar su viabilidad y confiabilidad para su uso en otro tipo de vehículos, por ejemplo, un tren. La idea del equipo de investigación es evaluar si, por ejemplo, sería posible controlar la velocidad de un tren y activar sus frenos emitiendo una señal desde las vías para, así, accionar los frenos asegurando que el sistema funcionará el 100% de las veces.
Las redes inalámbricas no son a prueba de fallos, este es un hecho en el que estamos basando nuestro trabajoLógicamente, no es lo mismo realizar las pruebas con un tren que con una bicicleta pero simplificando el modelo reduciendo la complejidad, los resultados se pueden extrapolar sin riesgo alguno para el equipo. Con tal fin, el equipo está aplicando algoritmos que se usan en los sistemas de control de industrias críticas como la aeronaútica o la química, fijando una tasa de fiabilidad del 99,9999999999997 %.
Usar un freno de bicicleta nos ofrece un escenario suficiente como para poder optimizar los métodos de operación de este tipo de sistemas en entornos mucho más complejos. […] Con esta tasa de fiabilidad, de cada mil millones de intentos de frenado, tres serían un fracaso. No es perfecto pero es aceptable

El funcionamiento del prototipo es igual que el clásico freno de una bicicleta convencional, apretar con la mano la empuñadura para accionar el freno de disco de la rueda y aplicar la frenada en base a la fuerza aplicada sobre el mando del freno. La diferencia estriba en que, del mando del freno, no sale ningún tipo de cable sino que se envía una señal de radio a un receptor conectado a los radios de la rueda de la bicicleta donde hay un actuador que activa los frenos de disco.
¿Y qué pasa con el tiempo de respuesta? El prototipo actual requiere 250 milisegundos en activarse, es decir, a una velocidad de 30 kilómetros por hora, el ciclista debe reaccionar a 2 metros de distancia del obstáculo, un margen algo ajustado en opinión del equipo y en el que quieren trabajar para su mejora.

viernes, 17 de febrero de 2012
jueves, 16 de febrero de 2012
Alemania sin nucleares, con temperaturas bajo cero y exportando electricidad a Francia a precio de oro.
Tres días después de Fukushima Angela Merkel decidió desconectar 8 centrales nucleares, aquellas con la tecnología de la central japonesa, desprenderse de más de 8.000 MW. ¿Qué efectos tenía este abandono “precipitado” de la energía nuclear? Cualquier relación de los estudios que se hicieron con la realidad es pura coincidencia.
La semana pasada, en medio de una ola de frio, con temperaturas bajo cero, Alemania exportaba electricidad a Francia; cuyo consumo de electricidad se había disparado: en horas punta de demanda -el pasado martes a las 19.00- llegó a 100,5 GWh (equivalente a 80 centrales nucleares).
Alemania con 15 millones más de ciudadanos el consumo fue de 51 GWh. El precio de la electricidad en Francia ya se disparó a 34 céntimos de euros el kWh. ¿Es mucho? Hoy en España el precio está en 54 euros MWh, mientras en Francia a 74 euros el MW; para que tengan una referencia, el precio al que se retribuye la energía eólica esta a 77 euros MWh.
Mientras España está exportando al límite de su escasa capacidad, unos 3.000 MW a Francia; Alemania, con 8 centrales nucleares cerradas en marzo de 2011, con termómetros helados, no sólo no se ha quedado a oscuras; el pasado viernes tenía un superávit de 5.000 MWh con Francia (equivale a exportar la producción de cuatro centrales nucleares), incluso en la franja horaria más crítica, de 8 a 9 y de 18 a 19 horas.
La semana pasada, en medio de una ola de frio, con temperaturas bajo cero, Alemania exportaba electricidad a Francia; cuyo consumo de electricidad se había disparado: en horas punta de demanda -el pasado martes a las 19.00- llegó a 100,5 GWh (equivalente a 80 centrales nucleares).
Alemania con 15 millones más de ciudadanos el consumo fue de 51 GWh. El precio de la electricidad en Francia ya se disparó a 34 céntimos de euros el kWh. ¿Es mucho? Hoy en España el precio está en 54 euros MWh, mientras en Francia a 74 euros el MW; para que tengan una referencia, el precio al que se retribuye la energía eólica esta a 77 euros MWh.
Mientras España está exportando al límite de su escasa capacidad, unos 3.000 MW a Francia; Alemania, con 8 centrales nucleares cerradas en marzo de 2011, con termómetros helados, no sólo no se ha quedado a oscuras; el pasado viernes tenía un superávit de 5.000 MWh con Francia (equivale a exportar la producción de cuatro centrales nucleares), incluso en la franja horaria más crítica, de 8 a 9 y de 18 a 19 horas.
Etiquetas:
Ciencia
miércoles, 1 de febrero de 2012
Cuadricopteros
El famoso helicoptero de 4 aspas que se comercializa ahora tanto. Aquí una aplicación en enjambre diseñada por estudiantes y profesores de una universidad de pensilvania. Ahora imaginad cada robot de estos pesando 1 tonelada, y cargados con misiles, ametralladoras y demases patruyando ciudades como los drones de terminator o las naves de AVATAR xDD
Etiquetas:
Ciencia
viernes, 13 de enero de 2012
sábado, 7 de enero de 2012
Algunas curiosidades sobre los inventos
2- Isaac Newton inventó la puerta para perros:
3- Un sacerdote católico formuló la teoría del Big Bang:
4- La empresa que fabricó la aspirina Bayer, también creó la heroína como una medicina para el resfriado.
jueves, 15 de diciembre de 2011
Universidad de Osaka desarrolla un robot con forma arácnida para rescates
Fuente: Blog ALT10040:
La robótica es una de las ramas de la ingeniería que siempre me ha parecido fascinante. La introducción de los robots en la industria, la cirugía o en la exploración espacial, nos ha permitido mejorar en el desempeño de nuestras tareas o, incluso, llegar a sitios a los que no podría llegar un ser humano (como los robots que accedieron a la central de Fukishima a medir la radiación). En situaciones de emergencia, los robots han demostrado ser de gran ayuda para acceder a lugares complicados y, pensando en mejorar el desempeño de estos asistentes, la Universidad de Osaka ha diseñado un robot de 6 patas y de forma arácnida tan versátil que podría ser utilizado en rescates o para acceder a lugares complicados, el robot Asterisk.
Con un diseño inspirado en los insectos y arácnidos, este robot de seis patas es capaz de utilizar dos de las patas a modo de brazos y capturar objetos para transportarlos en su espalda.
Según el profesor Arai, responsable del proyecto, este robot podría ser de gran ayuda en catástrofes como el terremoto acontecido en Japón, puesto que equipado con una cámara podría ser utilizado para buscar supervivientes en los escombros de un edificio. Además, podría ser utilizado en la desactivación de explosivos, dado que añadiendo sensores a sus patas y funcionar éstas, bajo demanda, como brazos, se podrían realizar movimientos muy precisos a la hora de capturar objetos.

La robótica es una de las ramas de la ingeniería que siempre me ha parecido fascinante. La introducción de los robots en la industria, la cirugía o en la exploración espacial, nos ha permitido mejorar en el desempeño de nuestras tareas o, incluso, llegar a sitios a los que no podría llegar un ser humano (como los robots que accedieron a la central de Fukishima a medir la radiación). En situaciones de emergencia, los robots han demostrado ser de gran ayuda para acceder a lugares complicados y, pensando en mejorar el desempeño de estos asistentes, la Universidad de Osaka ha diseñado un robot de 6 patas y de forma arácnida tan versátil que podría ser utilizado en rescates o para acceder a lugares complicados, el robot Asterisk.
Con un diseño inspirado en los insectos y arácnidos, este robot de seis patas es capaz de utilizar dos de las patas a modo de brazos y capturar objetos para transportarlos en su espalda.
Realizamos el diseño basándonos en los animales. Hemos realizado este robot basándonos en el principio que dos pares de tres piernas nos ofrecen total estabilidad. Una de las características del movimiento de este robot, al igual que pasa al andar, es que sus patas son capaces de manejar diferencias de peso entre ellas. Además, es capaz de pasar por sitios estrechos o muy bajos, dado que puede agacharseAsterisk ha sido desarrollado específicamente para la búsqueda y el rescate; este robot ha sido implementado para funcionar sin que importe que tiene dos caras. ¿Dos caras? Pues sí, el robot es capaz de funcionar de un lado como del revés, simplemente, las patas se plegarán hacia un lado o hacia otro y, gracias a ello, será capaz de levantarse para volver a andar (por tanto, no hay problema si subiendo por un terreno complicado se cae y termina patas arriba, será capaz de volverse a levantar). Las patas del robot pueden terminarse en unas ruedas y hacer que el robot pueda extender sus patas, alinearlas y reducir su altura al máximo para, así, poder pasar por un lugar muy estrecho.
Según el profesor Arai, responsable del proyecto, este robot podría ser de gran ayuda en catástrofes como el terremoto acontecido en Japón, puesto que equipado con una cámara podría ser utilizado para buscar supervivientes en los escombros de un edificio. Además, podría ser utilizado en la desactivación de explosivos, dado que añadiendo sensores a sus patas y funcionar éstas, bajo demanda, como brazos, se podrían realizar movimientos muy precisos a la hora de capturar objetos.

Aunque no los hemos instalado en este prototipo, el robot podría dotarse de sensores táctiles que permitan agarrar objetos de manera más precisaDe hecho, Asterisk es tan versátil que es capaz de escalar por una valla metálica o ser descolgado con una cuerda, aterrizar en el suelo de cualquier manera y ponerse de pie para comenzar su misión.
jueves, 8 de diciembre de 2011
Expectación sobre la partícula de Higgs en el acelerador LHC
El descubrimiento está cada vez más cerca, pero aun no parece definitivo, según el anuncio de una conferencia al respecto convocada en el Laboratorio Europeo de Física de Partículas

En la conferencia del martes, a primera hora de la tarde, la portavoz de Atlas, Fabiola Gianotti expondrá los últimos resultados de este detector y a continuación lo hará el portavoz de CMS, Guido Tonelli, con el otro. Tras las dos presentaciones, de media hora cada una, en el auditorio central del CERN, habrá otra hora de debate entre los físicos del laboratorio.
El bosón de Higgs está predicho en la teoría de física de partículas pero nunca se ha visto en un experimento y su importancia reside en que permitiría explicar por qué tienen masa las partículas que la tienen, completando el Modelo Estándar que describe las partículas elementales y las interacciones entre ellas. Los especialistas afirman que el LHC es suficientemente potente para descubrirlo o para descartar su existencia. De cualquier modo será un gran descubrimiento.
Fuente: El País
lunes, 5 de diciembre de 2011
Japón y Rusia anuncian que pueden clonar un mamut
Fuente: Xatakaciencia:

Según un informe publicado el pasadao sábado, científicos de Japón y Rusia creen que puede ser posible clonar un mamut después de encontrar su médula osea bien conservada, en el hueso de un muslo recuperado en Siberia. Equipos de investigadores del Sakha Republic’s Mammoth Museum y de la Universidad de Kinki de Japón, pondrán en marcha una investigación conjunta el próximo año. Su objetivo será el recrear este mamífero gigante.
Su estrategia se basa en la manipulación del ADN de un óvulo de elefante, con la muestra obtenida de la médula de los mamuts. Así, sería posible la reproducción. Los científicos implantarán los embriones en el vientre de un elefante, ya que las dos especies son parientes cercanos.
Según el grupo de investigadores, encontrar núcleos sin ningún gen dañado es esencial para la técnica de transplante. Para los científicos, esta tárea ha sido todo un reto, desde que iniciaron su investigación desde finales de 1990. Hay que recordar que los mamuts se extinguieron hace unos 10.000 años. Sin embargo, el descubrimiento del pasado agosto del hueso de un muslo bien conservado en Siberia, ha aumentado las posibilidades de una clonación exitosa.


Según un informe publicado el pasadao sábado, científicos de Japón y Rusia creen que puede ser posible clonar un mamut después de encontrar su médula osea bien conservada, en el hueso de un muslo recuperado en Siberia. Equipos de investigadores del Sakha Republic’s Mammoth Museum y de la Universidad de Kinki de Japón, pondrán en marcha una investigación conjunta el próximo año. Su objetivo será el recrear este mamífero gigante.
Su estrategia se basa en la manipulación del ADN de un óvulo de elefante, con la muestra obtenida de la médula de los mamuts. Así, sería posible la reproducción. Los científicos implantarán los embriones en el vientre de un elefante, ya que las dos especies son parientes cercanos.
Según el grupo de investigadores, encontrar núcleos sin ningún gen dañado es esencial para la técnica de transplante. Para los científicos, esta tárea ha sido todo un reto, desde que iniciaron su investigación desde finales de 1990. Hay que recordar que los mamuts se extinguieron hace unos 10.000 años. Sin embargo, el descubrimiento del pasado agosto del hueso de un muslo bien conservado en Siberia, ha aumentado las posibilidades de una clonación exitosa.

domingo, 4 de diciembre de 2011
La ubicación de nuestra Galaxia en el Universo observable - una lección de humildad
Blog: Jaque al Neoliberalismo:
Esta es una imagen que invita a reflexionar sobre nuestra singular presencia en el universo conocido. El punto que aparece levemente resaltado es nuestra constelación que, como sabemos, alberga a miles de millones de galaxias incluyendo la nuestra, La vía Láctea. Sabemos también que La Vía Láctea, incluye a cientos de miles de estrellas como nuestro Sol... Pero nuestro conocimiento no siempre fue así. La ubicación de la Tierra en el universo ha sido atesorada en los últimos 400 años y se ha modificado de acuerdo a los diversos paradigmas que han prevalecido. En un principio, se pensaba que la Tierra era el centro del universo, el Modelo Ptolomeico, que consistía en los planetas visibles y las estrellas fijas.
Después de la revolución del Modelo Copernicano, o heliocéntrico, las observaciones de William Herschel revelaron que nuestro sol y nuestro sistema solar están en una galaxia con forma de disco, en la que hay muchos otros soles. En el siglo XX se descubrió que nuestra Galaxia (La Vía Láctea) es solo una de las miles de millones de galaxias de un Universo en expansión agrupadas en cúmulos y supercúmulos. En los últimos años, la estructura general del universo visible se ha hecho más clara, con la formación de supercúmulos a una vasta red de filamentos y vacíos. Los grupos, cúmulos o super cúmulos de galaxias, se diferencian por su tamaño y el número de galaxias que contienen. Los Supercúmulos son las estructuras más grandes que existen en el Universo y para su medición requieren de una escala de 1.000 mega parsec, como unidad de medida. Un parsec es la distancia que recorre la luz en un año; lo que indica que un megaparsec equivale a 30,86 trillones de kilómetros: 30,86 + 18 ceros.
Dado que no se cree que exista un "centro" o un "borde" del universo, no hay punto de referencia en particular con los que trazar la ubicación general de la Tierra en el universo. La Tierra aparece en el centro del universo observable, porque su observabilidad está determinada por su distancia de la Tierra. Se puede hacer referencia a la posición de la Tierra con respecto a las estructuras específicas que existen en diversas escalas. Todavía es incierto si el universo es infinito, y se especula que nuestro universo podría ser sólo uno de los incontables billones de Universos en un mayor Multiverso, inscrita a su vez dentro del gran Omniverso, o Universo de Universos. El siguiente es un viaje a los confines del Universo conocido, patrocinado por estas imágenes que nos demuestran lo pequeño que somos y nos dan una gran lección de humildad. El viaje parte en nuestro planeta y sigue por el sistema solar, la Vía Láctea, nuestra constelación de galaxias, las galaxias vecinas, etc. Al final de este recorrido hay un clip realizado por el American Museum of Natural History que nos ofrece el viaje de ida y vuelta a los confines del Universo. Aqui partimos:
Esta es una imagen que invita a reflexionar sobre nuestra singular presencia en el universo conocido. El punto que aparece levemente resaltado es nuestra constelación que, como sabemos, alberga a miles de millones de galaxias incluyendo la nuestra, La vía Láctea. Sabemos también que La Vía Láctea, incluye a cientos de miles de estrellas como nuestro Sol... Pero nuestro conocimiento no siempre fue así. La ubicación de la Tierra en el universo ha sido atesorada en los últimos 400 años y se ha modificado de acuerdo a los diversos paradigmas que han prevalecido. En un principio, se pensaba que la Tierra era el centro del universo, el Modelo Ptolomeico, que consistía en los planetas visibles y las estrellas fijas.
Después de la revolución del Modelo Copernicano, o heliocéntrico, las observaciones de William Herschel revelaron que nuestro sol y nuestro sistema solar están en una galaxia con forma de disco, en la que hay muchos otros soles. En el siglo XX se descubrió que nuestra Galaxia (La Vía Láctea) es solo una de las miles de millones de galaxias de un Universo en expansión agrupadas en cúmulos y supercúmulos. En los últimos años, la estructura general del universo visible se ha hecho más clara, con la formación de supercúmulos a una vasta red de filamentos y vacíos. Los grupos, cúmulos o super cúmulos de galaxias, se diferencian por su tamaño y el número de galaxias que contienen. Los Supercúmulos son las estructuras más grandes que existen en el Universo y para su medición requieren de una escala de 1.000 mega parsec, como unidad de medida. Un parsec es la distancia que recorre la luz en un año; lo que indica que un megaparsec equivale a 30,86 trillones de kilómetros: 30,86 + 18 ceros.
Dado que no se cree que exista un "centro" o un "borde" del universo, no hay punto de referencia en particular con los que trazar la ubicación general de la Tierra en el universo. La Tierra aparece en el centro del universo observable, porque su observabilidad está determinada por su distancia de la Tierra. Se puede hacer referencia a la posición de la Tierra con respecto a las estructuras específicas que existen en diversas escalas. Todavía es incierto si el universo es infinito, y se especula que nuestro universo podría ser sólo uno de los incontables billones de Universos en un mayor Multiverso, inscrita a su vez dentro del gran Omniverso, o Universo de Universos. El siguiente es un viaje a los confines del Universo conocido, patrocinado por estas imágenes que nos demuestran lo pequeño que somos y nos dan una gran lección de humildad. El viaje parte en nuestro planeta y sigue por el sistema solar, la Vía Láctea, nuestra constelación de galaxias, las galaxias vecinas, etc. Al final de este recorrido hay un clip realizado por el American Museum of Natural History que nos ofrece el viaje de ida y vuelta a los confines del Universo. Aqui partimos:
La Tierra
El Sistema Solar
El Sistema Solar y su vecindad
martes, 29 de noviembre de 2011
¿Qué pasaría si se pone un robot dotado de reconocimiento facial… frente a un espejo? Qbo en acción
Fuente: Microsiervos
En esta prueba el robot Qbo recibe una grata sorpresa cuando se le pide que eche un vistazo a su alrededor en el modo «reconocer objetos». Con toda su expresividad, el pequeño artilugio mecánico llega hasta el espejo y dice que «hay algo nuevo que no sabe lo que es» y cuando se le dice que es él mismo lo archiva en su memoria para posteriores ocasiones.
Con la expresividad que tiene, que no está nada mal, la verdad es que como dicen en I Heart Robotics esta secuencia de unos pocos segundos puede contener más implicaciones filosóficas de las que parece, y del robot reconociéndose a sí mismo en un espejo por primera vez da para pensar un buen rato, es un momento electrizante.
Hay que reconocer que ayuda bastante que el reconocimiento de voz y las contestaciones de Qbo sean tan precisas, incluyendo interpretar It’s You, I, Me, etc («Eres tú» «Yo», «Me veo») y construir las frases sin errores. Es tan genial que estuve un rato pensando si la secuencia tendría truco, pero he decidido que le concedo el beneficio de la duda.
El detalle de los woah, los nice y los let me see… intercalados por el sistema de voz –que son términos nulos que en realidad no aportan nada– le dotan de un bonus de humanidad muy especial, por cierto, igual que los ligerísimos movimientos de cabeza durante las pausas.
Tal y como dicen en la explicación algunos robots tienen incorporada en su memoria un esquema de «cómo son ellos mismos» por puras cuestiones mecánicas (saber dónde están sus brazos, ruedas, etcétera), pero lo que hace Qbo es observarse con los sistemas de visión y reconocimiento facial, una cámara estereoscópica en este caso, como probablemente deban hacer muchos robots en el futuro.
En esta prueba el robot Qbo recibe una grata sorpresa cuando se le pide que eche un vistazo a su alrededor en el modo «reconocer objetos». Con toda su expresividad, el pequeño artilugio mecánico llega hasta el espejo y dice que «hay algo nuevo que no sabe lo que es» y cuando se le dice que es él mismo lo archiva en su memoria para posteriores ocasiones.
Con la expresividad que tiene, que no está nada mal, la verdad es que como dicen en I Heart Robotics esta secuencia de unos pocos segundos puede contener más implicaciones filosóficas de las que parece, y del robot reconociéndose a sí mismo en un espejo por primera vez da para pensar un buen rato, es un momento electrizante.
Hay que reconocer que ayuda bastante que el reconocimiento de voz y las contestaciones de Qbo sean tan precisas, incluyendo interpretar It’s You, I, Me, etc («Eres tú» «Yo», «Me veo») y construir las frases sin errores. Es tan genial que estuve un rato pensando si la secuencia tendría truco, pero he decidido que le concedo el beneficio de la duda.
El detalle de los woah, los nice y los let me see… intercalados por el sistema de voz –que son términos nulos que en realidad no aportan nada– le dotan de un bonus de humanidad muy especial, por cierto, igual que los ligerísimos movimientos de cabeza durante las pausas.
Tal y como dicen en la explicación algunos robots tienen incorporada en su memoria un esquema de «cómo son ellos mismos» por puras cuestiones mecánicas (saber dónde están sus brazos, ruedas, etcétera), pero lo que hace Qbo es observarse con los sistemas de visión y reconocimiento facial, una cámara estereoscópica en este caso, como probablemente deban hacer muchos robots en el futuro.
- El mini-robot que sale de un laberinto a toda velocidad
- Una nueva versión del robot humanoide Asimo de Honda
- El pequeño robot Nao, jugando al Conecta 4
- Robonaut 2 se despereza en la ISS, un astronauta de metal
- El pequeño robot que monta en bici, simpático
- La lámpara robótica de IKEA, terminada
- Cuadricópteros fallando miserablemente, durante unas pruebas
- Bots High: robots destruyéndose los unos a los otros, luchas robóticas
- Así funciona una máquina deshuesadora de pollos, ingeniería industrial
- Una mano robótica de alta velocidad, impactante
- Robots que superan obstáculos saltando, llegan a cualquier lugar
- Un robot que juega de forma autónoma al billar americano (o casi)
- El robot malabarista capaz de mantener cinco bolas en el aire a la vez
domingo, 27 de noviembre de 2011
lunes, 21 de noviembre de 2011
Curiosity! La creeme de la creeme en exploracion espacial
Curiosity, el robot marciano más complejo de la historia
Esta noticia esta sacada de EUREKA un blog de Daniel Marín EL MEJOR BLOG DEL MUNDO después del de 7 samurais claro esta!! No se si os molara la robótica pero ahí va la próxima sonda de la NASA que va a marte y posiblemente la ultima en los próximos 10 años! Es la sonda mas avanzada, grande, pesada y sofisticada de la historia!!!! Si algún día desaparecemos y unos alienigenas descubren esa sonda en marte dirán jodidos terrícolas si al final eran buenos con la ciencia!!! Un trasto de estos vale unos miles de €uros pero la información y los avances como civilización son insuperables... 10 de estas sondas tendrían que ser lanzadas cada año!! Una pena que la ciencia este de capa caída con la puta crisis y apenas si invierta en I+D ni en proyectos como este! Ale no la rayo mas y leed el articulo! OJO A LA SEGUNDA FOTO!! comparativa entre los diferentes robots mandados.
El próximo sábado día 26 de noviembre dará comienzo una aventura apasionante. Porque en menos de seis días la NASA se dispone a lanzar rumbo a Marte la nave más compleja, fascinante y revolucionaria que haya concebido el ser humano para el estudio del planeta rojo. Su nombre, Mars Science Laboratory (MSL), más conocida como Curiosity. Del tamaño de un utilitario pequeño y alimentado por energía nuclear, Curiosity será capaz de vaporizar piedras con un láser para analizar su composición a varios metros de distancia. Durante dos años terrestres, recorrerá la misteriosa superficie del Cráter Gale estudiando los numerosos sedimentos de la zona y buscando posibles huellas de la presencia de vida. Es difícil imaginar una misión más emocionante.
La misión MSL fue aprobada en 2004 después del rotundo éxito de los MERs (Mars Exploration Rovers) Spirit y Opportunity. Equipado con un conjunto de diez instrumentos científicos altamente complejos, MSL debía ser el laboratorio móvil definitivo, superando las numerosas limitaciones del diseño de los pequeños vehículos precedentes. En un principio, el rover debía tener una masa de 775 kg, pero finalmente ha alcanzado los 899 kg. Para poder colocar en la superficie marciana semejante masa, los ingenieros han tenido que desarrollar el mayor escudo térmico y el mayor paracaídas usados en una misión planetaria. Aún así, no era suficiente. Para justificar su elevado coste, Curiosity debía poder acceder a la mayor parte de la superficie marciana, incluyendo las zonas más interesantes desde un punto de vista geológico y astrobiológico. Las anteriores misiones sólo podían acceder a las regiones con menor elevación para aprovechar el frenado del paracaídas, así que los técnicos incorporaron en el diseño de Curiosity una etapa de descenso separable. Esta etapa frenaría la velocidad de caída y se sería la encargada de posar al rover como si fuera una grúa (de ahí que el nombre de esta maniobra sea sky crane). Por primera vez en una misión espacial, las ruedas de una sonda servirían al mismo tiempo como tren de aterrizaje.
Pero el camino no ha sido fácil. Inicialmente, el coste de la misión no debía haber alcanzado los 650 millones de dólares, pero la enorme complejidad del vehículo dispararon la factura hasta límites insospechados. De hecho, se llegó a rumorear que la misión corría el riesgo de ser cancelada. Inicialmente estaba previsto que Curiosity despegase rumbo a Marte en septiembre de 2009, pero ese año la NASA decidió aplazar la misión hasta noviembre de 2011 por culpa del retraso acumulado por varios elementos de la misión. Este retraso le supuso a la agencia un gasto adicional de 400 millones de dólares. Finalmente, el coste de
MSL Curiosity (NASA).
La misión MSL fue aprobada en 2004 después del rotundo éxito de los MERs (Mars Exploration Rovers) Spirit y Opportunity. Equipado con un conjunto de diez instrumentos científicos altamente complejos, MSL debía ser el laboratorio móvil definitivo, superando las numerosas limitaciones del diseño de los pequeños vehículos precedentes. En un principio, el rover debía tener una masa de 775 kg, pero finalmente ha alcanzado los 899 kg. Para poder colocar en la superficie marciana semejante masa, los ingenieros han tenido que desarrollar el mayor escudo térmico y el mayor paracaídas usados en una misión planetaria. Aún así, no era suficiente. Para justificar su elevado coste, Curiosity debía poder acceder a la mayor parte de la superficie marciana, incluyendo las zonas más interesantes desde un punto de vista geológico y astrobiológico. Las anteriores misiones sólo podían acceder a las regiones con menor elevación para aprovechar el frenado del paracaídas, así que los técnicos incorporaron en el diseño de Curiosity una etapa de descenso separable. Esta etapa frenaría la velocidad de caída y se sería la encargada de posar al rover como si fuera una grúa (de ahí que el nombre de esta maniobra sea sky crane). Por primera vez en una misión espacial, las ruedas de una sonda servirían al mismo tiempo como tren de aterrizaje.
Curiosity comparado con los otros rovers marcianos MERs y Sojourner (NASA).
Comparación del tamaño de Curiosity con una persona (NASA).
Pero el camino no ha sido fácil. Inicialmente, el coste de la misión no debía haber alcanzado los 650 millones de dólares, pero la enorme complejidad del vehículo dispararon la factura hasta límites insospechados. De hecho, se llegó a rumorear que la misión corría el riesgo de ser cancelada. Inicialmente estaba previsto que Curiosity despegase rumbo a Marte en septiembre de 2009, pero ese año la NASA decidió aplazar la misión hasta noviembre de 2011 por culpa del retraso acumulado por varios elementos de la misión. Este retraso le supuso a la agencia un gasto adicional de 400 millones de dólares. Finalmente, el coste de
Etiquetas:
Ciencia
viernes, 18 de noviembre de 2011
Un paso más cerca de los ordenadores ópticos
Fuente: Xatakaciencia

En un esfuerzo para construir chips más rápidos cada día, muchos investigadores están trabajando en la posibilidad de construir ordenadores ópticos. En estos ordenadores, la información está codificada en forma de fotones en lugar de electrones, permitiendo que grandes cantidades de datos se procesen simultáneamente.
Pero antes de que podamos pensar en un ordenador óptico, hace falta diseñar una estructura que pueda manipular la luz a nuestro antojo. Actualmente, los ordenadores funcionan a partir de semiconductores que permiten que la electricidad los atraviese o no. De esa forma somos capaces de diseñar puertas lógicas (AND, OR, XOR, etc.) Por analogía, los computadores ópticos deberían emplear semiconductores ópticos que permitan que una amplica gama de longitudes de onda los atraviese o no a voluntad.
La fabricación de estructuras 3D que permitan controlar la luz, no es una tarea sencilla, ya que la tecnología actual implica la construcción de estas estructuras capa por capa sobre el propio chip. Esta técnica resultaría muy lenta y costosa para la fabricación de chips ópticos 3D.
Sin embargo, un equipo de investigadores de los Países Bajos, dirigido por el profesor Willem Vos del MESA+ Institute en la Universidad de Twente (Eindhoven), la empresa ASML y el Instituto TNO, han desarrollado la primera estructura 3D capaz de controlar la emisión de luz. Este elemento está formado por cristales fotónoicos que poseen una estructura artificial de diamante que está grabado en una oblea de silicio usando métodos compatibles con CMOS (uso de transistores pMOS y nMOS para la construcción de transistores).
“Para poder conseguir una banda fotónica prohibida, es fundamental contar con estructuras 3D a nuestro antojo. Nuestro trabajo es la demostración, por primera vez, del control radical de la emisión espontánea de luz por medio de una banda prohibida fotónica”, afirman Willem Tjerkstra y Léon Woldering, de la Universidad de Twente.
Los investigadores describieron cómo fabricar estas estructuras 3D en dos recientes estudios. A partir de obleas de silicio cristalino, los investigadores grabaron, en primer lugar, un conjunto de poros en un patrón rectangular en la parte superior de las obleas. Para ello, utilizaron técnicas avanzadas de litografía UV, en el que una cámara gigante emplea luz ultraviolea para proyectar la estructura de poros sobre la superficio de silicio. Esta luz crea una máscara con millones de diminutos poros. A continuación, emplearon un proceso de grabado de plasma que se utiliza comúnmente en la fabricación de chips para crear una serie de nanoporos sobre la oblea de silicio.
Tras esto, el grupo de científicos grabaron un conjunto de poros en la misma forma rectangular en la parte delgada de la oblea, por lo que este conjunto de poro atraviesa al conjunto inicial en un ángulo de 90º. El patrón de la máscara debe estar alineado con la mayor precisión posible, con el fin de que los poros queden perpendicularmente alineados con el primer conjunto.
Tal y como explicaron los investigadores, este proceso de fabricación resulta en dos avances significativos: se compone únicamente de dos pasos de grabado y no requiere un equipo especializado. Estos resultados se han publicado en Journal of Vacuum Science and Technology y en Advanced Functional Materials.

En un esfuerzo para construir chips más rápidos cada día, muchos investigadores están trabajando en la posibilidad de construir ordenadores ópticos. En estos ordenadores, la información está codificada en forma de fotones en lugar de electrones, permitiendo que grandes cantidades de datos se procesen simultáneamente.
Pero antes de que podamos pensar en un ordenador óptico, hace falta diseñar una estructura que pueda manipular la luz a nuestro antojo. Actualmente, los ordenadores funcionan a partir de semiconductores que permiten que la electricidad los atraviese o no. De esa forma somos capaces de diseñar puertas lógicas (AND, OR, XOR, etc.) Por analogía, los computadores ópticos deberían emplear semiconductores ópticos que permitan que una amplica gama de longitudes de onda los atraviese o no a voluntad.
La fabricación de estructuras 3D que permitan controlar la luz, no es una tarea sencilla, ya que la tecnología actual implica la construcción de estas estructuras capa por capa sobre el propio chip. Esta técnica resultaría muy lenta y costosa para la fabricación de chips ópticos 3D.
Sin embargo, un equipo de investigadores de los Países Bajos, dirigido por el profesor Willem Vos del MESA+ Institute en la Universidad de Twente (Eindhoven), la empresa ASML y el Instituto TNO, han desarrollado la primera estructura 3D capaz de controlar la emisión de luz. Este elemento está formado por cristales fotónoicos que poseen una estructura artificial de diamante que está grabado en una oblea de silicio usando métodos compatibles con CMOS (uso de transistores pMOS y nMOS para la construcción de transistores).
“Para poder conseguir una banda fotónica prohibida, es fundamental contar con estructuras 3D a nuestro antojo. Nuestro trabajo es la demostración, por primera vez, del control radical de la emisión espontánea de luz por medio de una banda prohibida fotónica”, afirman Willem Tjerkstra y Léon Woldering, de la Universidad de Twente.
Los investigadores describieron cómo fabricar estas estructuras 3D en dos recientes estudios. A partir de obleas de silicio cristalino, los investigadores grabaron, en primer lugar, un conjunto de poros en un patrón rectangular en la parte superior de las obleas. Para ello, utilizaron técnicas avanzadas de litografía UV, en el que una cámara gigante emplea luz ultraviolea para proyectar la estructura de poros sobre la superficio de silicio. Esta luz crea una máscara con millones de diminutos poros. A continuación, emplearon un proceso de grabado de plasma que se utiliza comúnmente en la fabricación de chips para crear una serie de nanoporos sobre la oblea de silicio.
Tras esto, el grupo de científicos grabaron un conjunto de poros en la misma forma rectangular en la parte delgada de la oblea, por lo que este conjunto de poro atraviesa al conjunto inicial en un ángulo de 90º. El patrón de la máscara debe estar alineado con la mayor precisión posible, con el fin de que los poros queden perpendicularmente alineados con el primer conjunto.
Tal y como explicaron los investigadores, este proceso de fabricación resulta en dos avances significativos: se compone únicamente de dos pasos de grabado y no requiere un equipo especializado. Estos resultados se han publicado en Journal of Vacuum Science and Technology y en Advanced Functional Materials.
viernes, 28 de octubre de 2011
Inteligencia Artificial: Hybrots, los seres semi-vivos
Fuente: Blog de ALT1040:


Quien no haya experimentado la seducción que la ciencia ejerce sobre una persona, jamás comprenderá su tiranía.Los hybrots son organismos cibernéticos que combinan neuronas, software y robótica. En su forma básica, los hybrots son robots controlados por las neuronas del cerebro de una rata. Esa mezcla inaudita fue hecha funcionar por vez primera por el Dr. Steve Potter de Georgia Tech en 2002 siguiendo estos pasos:
— Mary W. Shelley en Frankenstein o el moderno Prometeo
- Colocó gotas de una solución con miles de neuronas de rata sobre un chip de silicio
- En el chip incrustó unos 60 electrodos a su vez conectados a un amplificador
- Usó los electrodos para capturar las señales eléctricas generadas por las neuronas
- Recibió la señales amplificadas en una computadora
- De forma inalámbrica, hizo que la computadora enviara esas señales como datos para un robot
- Y como respuesta a esa actividad neuronal el robot activó sus motores para generar movimiento
miércoles, 26 de octubre de 2011
Asimov sobre el científico más grande que jamás existió
Fuente: Amazings.es:
Hoy me han regalado un viejo libro de divulgación del Buen Doctor, merecidísimo apelativo con el que muchos se referían a Isaac Asimov. En concreto se trata de la edición española de “Please explain“, traducido aquí como “100 preguntas básicas sobre la ciencia“.
En este libro, publicado en octubre de 1973, Asimov seleccionó 100 de sus mejores respuestas a dudas que sus lectores de la revista Science Digest le planteaban. En una de ellas, la número dos de la selección, Asimov contesta a un lector que le interroga sobre la identidad del científico más grande que jamás haya existido. Esta fue su respuesta:

Hoy me han regalado un viejo libro de divulgación del Buen Doctor, merecidísimo apelativo con el que muchos se referían a Isaac Asimov. En concreto se trata de la edición española de “Please explain“, traducido aquí como “100 preguntas básicas sobre la ciencia“.
En este libro, publicado en octubre de 1973, Asimov seleccionó 100 de sus mejores respuestas a dudas que sus lectores de la revista Science Digest le planteaban. En una de ellas, la número dos de la selección, Asimov contesta a un lector que le interroga sobre la identidad del científico más grande que jamás haya existido. Esta fue su respuesta:
Si la pregunta fuese «¿Quién fue el segundo científico más grande?» sería imposible de contestar. Hay por lo menos una docena de hombres que, en mi opinión, podrían aspirar a esa segunda plaza. Entre ellos figurarían, por ejemplo, Albert Einstein, Ernest Rutherford, Niels Bohr, Louis Pasteur, Charles Darwin, Galileo Galilei, Clerk Maxwell, Arquímedes y otros.
Incluso es muy probable que ni siquiera exista eso que hemos llamado el segundo científico más grande. Las credenciales de tantos y tantos son tan buenas y la dificultad de distinguir niveles de mérito es tan grande, que al final quizá tendríamos que declarar un empate entre diez o doce.
Pero como la pregunta es «¿Quién es el más grande?», no hay problema alguno. En mi opinión, la mayoría de los historiadores de la ciencia no dudarían en afirmar que Isaac Newton fue el talento científico más grande que jamás haya visto el mundo. Tenía sus faltas, viva el cielo: era un mal conferenciante, tenía algo de cobarde moral y de llorón autocompasivo y de vez en cuando era víctima de serias depresiones. Pero como científico no tenía igual.
Fundó las matemáticas superiores después de elaborar el cálculo. Fundó la óptica moderna mediante sus experimentos de descomponer la luz blanca en los colores del espectro. Fundó la física moderna al establecer las leyes del movimiento y deducir sus consecuencias. Fundó la astronomía moderna estableciendo la ley de la gravitación universal.
Cualquiera de estas cuatro hazañas habría bastado por sí sola para distinguirle como científico de importancia capital. Las cuatro juntas le colocan en primer lugar de modo incuestionable.
Pero no son sólo sus descubrimientos lo que hay que destacar en la figura de Newton. Más importante aún fue su manera de presentarlos.
Los antiguos griegos habían reunido una cantidad ingente de pensamiento científico y filosófico. Los nombres de Platón, Aristóteles, Euclides, Arquímedes y Ptolomeo habían descollado durante dos mil años como gigantes sobre las generaciones siguientes. Los grandes pensadores árabes y europeos echaron mano de los griegos y apenas osaron exponer una idea propia sin refrendarla con alguna referencia a los antiguos. Aristóteles, en particular, fue el «maestro de aquellos que saben».
Durante los siglos XVI y XVII, una serie de experimentadores, como Galileo y Robert Boyle, demostraron que los antiguos griegos no siempre dieron con la respuesta correcta. Galileo, por ejemplo, tiró abajo las ideas de Aristóteles acerca de la física, efectuando el trabajo que Newton resumió más tarde en sus tres leyes del movimiento. No obstante, los intelectuales europeos siguieron sin atreverse a romper con los durante tanto tiempo idolatrados griegos.
Luego, en 1687 publicó Newton sus Principia Mathematica, en latín (el libro científico más grande jamás escrito, según la mayoría de los científicos). Allí presentó sus leyes del movimiento, su teoría de la gravitación y muchas otras cosas, utilizando las matemáticas en el estilo estrictamente griego y organizando todo de manera impecablemente elegante. Quienes leyeron el libro tuvieron que admitir que al fin se hallaban ante una mente igual o superior a cualquiera de las de la Antigüedad, y que la visión del mundo que presentaba era hermosa, completa e infinitamente superior en racionalidad e inevitabilidad a todo lo que contenían los libros griegos.
Ese hombre y ese libro destruyeron la influencia paralizante de los antiguos y rompieron para siempre el complejo de inferioridad intelectual del hombre moderno.
Tras la muerte de Newton, Alexander Pope lo resumió todo en dos líneas: «La Naturaleza y sus leyes permanecían ocultas en la noche. Dijo Dios: ¡Sea Newton! Y todo fue luz.»
Isaac Asimov | Cien preguntas básicas sobre la ciencia
domingo, 9 de octubre de 2011
El Premio Nobel de Física de 2011, explicado en 99 segundos
Fuente: Microsiervos
Adam Reiss, Saul Perlmutter y Brian P. Schmidt descubrieron la aceleración de la expansión del universo, y por ello han recibido el Nobel de Física de este año. Como casi todas las teorías cosmológicas, es un poco complicadilla de entender en su totalidad, pero este vídeo de MinutePhysics lo resume bastante bien. Albert Einstein puede descansar tranquilo en su tumba.
(Vía Geeks Are Sexy.)
Microsiervos
Adam Reiss, Saul Perlmutter y Brian P. Schmidt descubrieron la aceleración de la expansión del universo, y por ello han recibido el Nobel de Física de este año. Como casi todas las teorías cosmológicas, es un poco complicadilla de entender en su totalidad, pero este vídeo de MinutePhysics lo resume bastante bien. Albert Einstein puede descansar tranquilo en su tumba.
(Vía Geeks Are Sexy.)
Microsiervos
sábado, 8 de octubre de 2011
Inteligencia Artificial: El Test de Turing
Fuente:ATL1040

Alan Turing (1912-1954) fue un matemático, criptógrafo, filósofo y un teórico de la computación que, además de trabajar en el equipo que descifró los códigos Enigma de Alemania, fue un pionero en el campo de la inteligencia artificial publicando uno de los primeros trabajos sobre esta materia. En 1950, Alan Turing publicó uno de sus artículos más importantes (y que está considerado como una de las piedras angulares de la inteligencia artificial), Computing Machinery and Intelligence, donde propuso un experimento: el Test de Turing.
El artículo de Turing cmoenzaba con una frase que era toda una declaración de intenciones de lo que evaluaría el test:
El testse basaba en el Juego de la Imitación, una prueba en la que se ubicaban en una habitación a un hombre y a una mujer frente a terminales que tuviesen algún sistema de comunicación (teletipos en los años 50). En otra habitación, estando aislado, se encontraba en sujeto bajo estudio que actuaba como interrogador y debía averiguar quién era el hombre y quién era la mujer, simplemente, a base de preguntas en lenguaje natural. El hombre trata de convencer al interrogador que él es la mujer y ella intentará ayudar al interrogador a llegar a la verdad pero, con la confusión, el interrogador tenderá a equivocarse.
Turing proponía realizar un cambio en este juego y coger a uno de los dos sujetos y sustituirlo por una máquina, haciendo que el computador intentase convencer al interrogador que él era la mujer y, dado que el interrogador es humano, la máquina debería ser capaz de responder, inteligentemente, a cualquiera de las cuestiones que le planteasen. Si la máquina era lo suficientemente hábil, el interrogador no podría distinguir quién era la máquina y quién el ser humano.

Pero, ¿puede una máquina responder con un lenguaje natural a cualquier pregunta planteada por el interrogador? ¿Puede pensar una máquina? Esas son las grandes preguntas que Turing plantea en este experimento. Lógicamente, salvo que una máquina emita sonidos que imiten la voz humana, la mejor manera de realizar la prueba es mediante lenguaje escrito y evaluar, únicamente, la inteligencia del oponente y la “humanidad” de las respuestas obtenidas a las preguntas planteadas.
¿Y dónde está la limitación? Para que un sistema pudiese pasar el test de Turing, ésta tendría que ser capaz de realizar las tareas para las que fue programada y, además, aprender por sí misma a realizar otras funciones. Es como si un computador destinado al cálculo de trayectorias fuese capaz de aprender a jugar al ajedrez y conversar, además, sobre cualquier tema.
Turing pronosticó que en el año 2000, las máquinas serían capaces de imitar tan bien a los humanos que el 70% no sería capaz de diferenciar entre un humano y una máquina y, por tanto, el 70% de los interrogadores no detectaría a las máquinas. Sin embargo, todavía ninguna máquina ha podido superar este examen y la predicción de Turing nunca llegó a cumplirse si bien Turing también fue un visionario que intuyó lo que luego se denominó singularidad tecnológica:


Alan Turing (1912-1954) fue un matemático, criptógrafo, filósofo y un teórico de la computación que, además de trabajar en el equipo que descifró los códigos Enigma de Alemania, fue un pionero en el campo de la inteligencia artificial publicando uno de los primeros trabajos sobre esta materia. En 1950, Alan Turing publicó uno de sus artículos más importantes (y que está considerado como una de las piedras angulares de la inteligencia artificial), Computing Machinery and Intelligence, donde propuso un experimento: el Test de Turing.
El artículo de Turing cmoenzaba con una frase que era toda una declaración de intenciones de lo que evaluaría el test:
Propongo considerar la siguiente cuestión: ¿Pueden pensar las máquinas?Y he aquí el resultado que se obtiene de este test, intentar medir si una máquina puede ser inteligente con un método que, aún hoy, sigue estando vigente. El Test de Turing se basa en una hipótesis positivista que parte de principio de que si una máquina se comporta en todos los aspectos como inteligente, entonces, dicha máquina debe ser inteligente.
El testse basaba en el Juego de la Imitación, una prueba en la que se ubicaban en una habitación a un hombre y a una mujer frente a terminales que tuviesen algún sistema de comunicación (teletipos en los años 50). En otra habitación, estando aislado, se encontraba en sujeto bajo estudio que actuaba como interrogador y debía averiguar quién era el hombre y quién era la mujer, simplemente, a base de preguntas en lenguaje natural. El hombre trata de convencer al interrogador que él es la mujer y ella intentará ayudar al interrogador a llegar a la verdad pero, con la confusión, el interrogador tenderá a equivocarse.
Turing proponía realizar un cambio en este juego y coger a uno de los dos sujetos y sustituirlo por una máquina, haciendo que el computador intentase convencer al interrogador que él era la mujer y, dado que el interrogador es humano, la máquina debería ser capaz de responder, inteligentemente, a cualquiera de las cuestiones que le planteasen. Si la máquina era lo suficientemente hábil, el interrogador no podría distinguir quién era la máquina y quién el ser humano.

Pero, ¿puede una máquina responder con un lenguaje natural a cualquier pregunta planteada por el interrogador? ¿Puede pensar una máquina? Esas son las grandes preguntas que Turing plantea en este experimento. Lógicamente, salvo que una máquina emita sonidos que imiten la voz humana, la mejor manera de realizar la prueba es mediante lenguaje escrito y evaluar, únicamente, la inteligencia del oponente y la “humanidad” de las respuestas obtenidas a las preguntas planteadas.
A menudo se da importancia al hecho de que las computadoras digitales son eléctricas y que el sistema nervioso también lo es. Puesto que la máquina de Babbage no era eléctrica y puesto que todas las computadoras digitales son equivalentes en cierto sentido, observamos que el uso de la electricidad no puede tener importancia teórica.El Test de Turing es la base sobre la que se apoyan algunos mecanismos que estamos acostumbrados a ver cada día, por ejemplo, los Captchas (Completely Automated Public Turing Test to tell Computers and Humans Apart) que aunque no son un test de Turing puro, se utilizan en muchas páginas web para evitar que procesos automatizados puedan registrar usuarios falsos o escribir mensajes de spam.
¿Y dónde está la limitación? Para que un sistema pudiese pasar el test de Turing, ésta tendría que ser capaz de realizar las tareas para las que fue programada y, además, aprender por sí misma a realizar otras funciones. Es como si un computador destinado al cálculo de trayectorias fuese capaz de aprender a jugar al ajedrez y conversar, además, sobre cualquier tema.
Turing pronosticó que en el año 2000, las máquinas serían capaces de imitar tan bien a los humanos que el 70% no sería capaz de diferenciar entre un humano y una máquina y, por tanto, el 70% de los interrogadores no detectaría a las máquinas. Sin embargo, todavía ninguna máquina ha podido superar este examen y la predicción de Turing nunca llegó a cumplirse si bien Turing también fue un visionario que intuyó lo que luego se denominó singularidad tecnológica:
Las consecuencias de que las máquinas pensaran serían demasiado terribles. Esperemos y creamos que no pueden hacerlo.[…] Nos gusta creer que el hombre es, en cierto modo, superior al resto de la creación, pero sería mejor si pudiéramos demostrar que es necesariamente superior, puesto que así no habría peligro de que perdiera su posición dominante.

Suscribirse a:
Entradas (Atom)