Home Zona Científica
Avances, desarrollo, divulgación de la ciencia.

Los llamaban “Experimentos del viernes por la noche”. Andre Geim, físico del laboratorio de nanotecnología de Manchester, y su doctorando, Kostantín Novosiólov, dedicaban esos pasatiempos vespertinos a trabajar en áreas de la ciencia distintas a las habituales en lugar de irse a casa.
“¿Por qué no hacemos transistores con grafito?” se dijeron un día. Y serendipia mediante, en su segundo ensayo obtuvieron ese material que, 6 años más tarde, sería el pasaporte para ganar el Premio Nobel de Física en 2010: grafeno, el material del futuro.

C8F

El grafeno es una capa de grafito de solo un átomo de grosor imperceptible al ojo. Sus propiedades baten marcas, porque se trata del material más flexible, más fuerte, más ligero y que mejor conduce el calor, al menos que conozcamos. Un par de datos para hacernos a la idea, es hasta 200 veces más resistente que el acero y pesa 5 veces menos que el aluminio.

Con este acervo de cualidades, lo lógico es que la industria se haya lanzado a una carrera meteórica por aprovechar sus bondades y desarrollar todo tipo de aplicaciones del grafeno.

Teniendo en cuenta que el grafeno es transparente y que una de sus propiedades más valoradas es la conductividad, no es extraño que las investigaciones sobre este material estén relacionadas en gran parte con su uso en paneles fotovoltaicos. De hecho, varios científicos ya han demostrado que este metal puede convertir un fotón en múltiples electrones capaces de conducir la electricidad. 14805laserg8630

El ámbito de la sostenibilidad ha encontrado en el grafeno un socio incondicional, y las investigaciones sobre desalinización y purificación del agua con ayuda de este metal están siendo muy alentadoras.
A vista de microscopio, una lámina de grafeno es una estructura de hexágonos en donde quedan pequeñísimos agujeros con un tamaño suficiente para que por ellos puedan pasar las moléculas del agua. Esta permeabilidad podría convertir al grafeno en un filtro ideal para atrapar las partículas contaminantes y potabilizar el agua.

Sera-el-grafeno-el-material-del-futuro-1Científicos del MIT lograron hace un tiempo filtrar la sal del agua con la ayuda de los nanoporos de grafeno entre 2 y 3 veces más rápido que con las tecnologías actuales. Además, una investigadora de la Universidad de California ha diseñado una membrana a base de grafeno muy fina que tiene la capacidad de filtrar el agua y eliminar sus contaminantes de una forma eficaz y con menos gasto energético que los procedimientos actuales.

Las propiedades del grafeno han hecho que el mundo textil también se haya fijado en este metal para diseñar nuevos tejidos. Su resistencia y ligereza podrían permitir confeccionar prendas blindadas a prueba de balas clave para policías o para el ejército.
Además, su conductividad ha llevado a un grupo de investigadores a integrar electrodos flexibles y transparentes de grafeno en fibras textiles con la idea de convertir las prendas en verdaderos dispositivos portátiles o wearables ligeros, resistentes y fáciles de transportar.

Fuentes: El País, El Economista, Tuexperto, BBC, Vofeel, Computer Hoy

Una de las razones por la que el cáncer de mama es de las principales causas de muerte en mujeres, es la detección tardía, ya sea por falta de acceso a los servicios de salud u otros impedimentos.

Para resolver la situación, el Instituto Tecnológico de Colima (Itec), ha creado un dispositivo que permitirá detectar el cáncer sin salir de casa: un brasier.

El brasier es un sistema portátil y de bajo costo para monitorear la temperatura de los senos y con ello, detectar las condiciones iniciales del cáncer de mama cuando se va a implantar un tumor, ya que los senos sufren cambios en su patrón termográfico, que es un valor de temperatura nominal que los senos humanos poseen.

El proyecto inició hace tres años.

En entrevista con la Agencia Informativa del Consejo Nacional de Ciencia y Tecnológia (Conacyt), el doctor en informática Jesús Alberto Verduzco Ramírez, asesor del proyecto, dijo que el desarrollo del sistema de monitoreo Xploratec inició hace tres años.

Refirió que en 2015, el equipo de especialistas del Itec publicó el artículo “Sistema de monitoreo de temperatura de los senos humanos en la detección temprana del cáncer de seno”, en la Revista Iberoamericana de las Ciencias de la Salud, en donde se dieron a conocer los avances de esta investigación.

“Posteriormente, llevamos a cabo la segunda fase que consistió en diseñar un sistema portátil para detectar de manera temprana las condiciones que anteceden la aparición del cáncer de mama, que fuera económico y personalizado y que no fuera tan intrusivo como la mastrografía“, dijo el académico.

Apuntó que con la tecnología actual se proporcionan resultados confiables, que puedan ser valorados por los especialistas, lo que puede derivar en una detección temprana que permita al paciente recibir atención oportuna y, muchas veces, salvarte la vida.

¿Cómo funciona?

Detalló que el prototipo está divido en dos módulos, el primero consiste en el monitoreo de la temperatura de los senos mediante un sostén adaptado, y el segundo en el análisis del especialista, quien interpreta los datos.

El sostén cuenta con 14 sensores que detectan la variación de la temperatura, los cuales están colocados en cada copa de manera uniforme para que no resulten incómodos o molestos. Al lado hay un dispositivo receptor con conexión USB, en el que se unen los sensores para guardar los valores térmicos en una base de datos.

En la segunda etapa, el usuario conecta el sistema portátil a su computadora con ayuda del puerto USB y lo descarga en Internet en una página web previamente diseñada para dicho fin.

El sitio cuenta con varias opciones donde tanto el paciente como el médico tratante pueden visualizar y analizar la información, la cual ayuda al oncólogo a hacer un mejor diagnóstico.

Verduzco Ramírez comentó que se desarrolló el software Xploratec para la web, que está implementado en un repositorio virtual (la nube).

Las sesiones de monitoreo son de 24 horas y cada cinco minutos se realiza la lectura de los valores que emite dicho dispositivo, los cuales se van almacenando y se suben a la nube para que los analice el especialista.

Fuente: sumedico.com

El antecedente de esta bioimpresora 3D de piel humana hay que buscarlo en desarrollos del mismo grupo que diseñó, a principios de 2000, un sistema ‘in vitro’ por el cual, a partir de una pequeña biopsia de un paciente, se puede generar toda su piel en tres semanas, un tratamiento que en en España ya se usa en las unidades hospitalarias de grandes quemados.

Ahora, con la bioimpresora 3D se da un paso más, señaló a Efe José Luis Jorcano, profesor del departamento de Bioingeniería e Ingeniería Aerospacial de la UC3M y jefe de la unidad mixta CIEMAT/UCM3 de Ingeniería Biomédica, quien aseguró que entre los objetivos está la automatización del proceso, la producción a mayor escala y abaratar los costes de la creación de piel humana.

Varias utilidades:
Actualmente está en fase de aprobación por diferentes entidades regulatorias europeas para garantizar que la piel producida sea apta para su utilización en trasplantes a pacientes con quemaduras y otros problemas en la piel.

Además, estos tejidos se pueden emplear para probar productos farmacéuticos así como cosméticos y químicos de gran consumo, donde
la regulación actual exige que se teste sin animales, informó la UC3M es una nota.

La bioimpresora replica la estructura natural de la piel, con una primera capa externa, la epidermis con su estrato córneo que protege
contra el medio ambiente exterior, junto a otra más profunda y gruesa, la dermis.

Esta última capa está integrada por fibroblastos que producen colágeno, la proteína que le da elasticidad y resistencia mecánica.

Biotintas:

La clave para hacerlo son las biotintas; en lugar de cartuchos con tintas de colores, se utilizan jeringas con distintos componentes biológicos: células, proteínas, factores de crecimiento y andamiajes (estructuras en las que se integran las proteínas para dar forma al tejido), explicó a Efa el investigador de la UCM3.

Los componentes son los mismos que los usados en la creación de la piel a mano, pero adaptados a la impresora, que tiene tres módulos:
ordenador, los depósitos de las biotintas y el módulo de impresión.

La deposición de estas biotintas, patentadas por el CIEMAT y bajo licencia de BioDan Group, está controlada por ordenador y se realiza en una placa para ir produciendo la piel, que luego se introduce en una incubadora a 37 grados centígrados.

Formas de producción:

El proceso de producción de estos tejidos se puede realizar de dos maneras: piel autóloga, creada caso a caso a partir de células del
propio paciente para usos terapéuticos como quemaduras graves, y piel alogénica, a partir de células de cualquier donante.

Esta última es la que está más avanzada y es la más indicada para testar químicos, medicamentos o cosméticos.

En ambos procesos hay que extraer, al igual que con la técnica manual, las células del paciente/donante a través de una pequeña biopsia,
cultivarlas en el laboratorio y conseguir su multiplicación, en un proceso que puede durar unas dos o tres semanas.

Una vez que se han conseguido suficientes células, se mezclan con el resto de componentes biológicos para la impresión, cuestión de minutos.

Proceso seguro:

La impresora trabaja en condiciones de seguridad biológica para evitar contaminación de otros agentes, por ejemplo bacterias, según Jorcano, quien añadió que el equipo está trabajando ya en cosas nuevas, como estructuras de la piel más compleja y otros tejidos que no sean piel.

ryUbC9QDx_930x525

 

Fuente: vanguardia.com

Resulta que la Luna es mucho más vieja que lo que sospechaban los científicos: tiene 4.510 millones de años. Ese es el más reciente estimado, gracias a rocas y muestras de suelo recolectadas por los tripulantes del Apolo 14 en 1971.

Un equipo de científicos reportó que la Luna se formó unos 60 millones de años después del nacimiento del sistema solar. Cálculos previos situaban la formación hasta unos 200 millones de años tras el nacimiento del sistema solar.

Los científicos realizaron datación con uranio-plomo en fragmentos de zircón extraídos de muestras lunares de Apolo 14. Los fragmentos de zircón eran minúsculos, no mayores que un grano de arena.

“El tamaño no importa, registran información asombrosa”, dijo en un mensaje electrónico la principal autora del estudio, Melanie Barboni, de la Universidad de California en Los Ángeles (UCLA).

Apuntó que la Luna “tiene mucha magia, la clave para entender cómo se formó nuestra hermosa Tierra”.

Algunas de las ocho muestras de zircón fueron usadas en un estudio previo en la UCLA. Barboni dijo que está estudiando más muestras obtenidas por el Apolo 14, pero que no espera cambiar su estimado de 4.510 millones de años para la edad de la Luna, posiblemente 4.520, como máximo.

“Más que otra cosa es para verificar”, dijo. Ella y sus colegas -cuyo trabajo es publicado en la revista Science Advances– están deseosos de conocer más sobre la historia de la Luna y, con ello, la evolución inicial de la Tierra y todo el sistema solar.

Los astronautas del Apolo 11 Alan Shepard y Edgar Mitchell recolectaron 41 kilos de roca y usaron tubos para excavar el suelo cuando exploraban la formación Fra Mauro en la Luna, en febrero de 1971. Los astronautas realizaron dos caminatas por un total de 9 horas en la superficie lunar.

El lunes, científicos israelíes dijeron que el satélite de la Tierra pudiera ser en realidad una combinación de muchas minilunas. En lugar de un enorme impacto que arrancó un pedazo del planeta y formó la Luna, una serie de colisiones menores pudieran haber creado múltiples satélites que eventualmente se fusionaron en uno solo, de acuerdo con los estudiosos.

 

Fuente: elcomercio.pe

Un estudio reciente publicado en la revista Astronomy and Astrophysics sugiere que se aproximará mucho más de lo pensado y que su llegada podría provocar una lluvia de peligrosos cometas.

Según los científicos, el astro se encuentra a 64 años luz de nuestro planeta y, aunque es probable que no choque con ningún cuerpo celeste, su paso por la Nube de Oort –una nube esférica en los límites del Sistema Solar llena de rocas heladas y posible fuente de cometas– desencadenaría una lluvia de cometas en dirección a la Tierra dada la enorme influencia gravitatoria de la estrella.

Filip Berski y Piotr Dybcznski, de la Universidad Adam Mickiewicz, en Polonia, y coautores del estudio, utilizaron datos recogidos por la sonda espacial Gaia que demostraron que la distancia y el tiempo de proximidad son menores que los propuestos en investigaciones anteriores. Así, la Gliese 710 generará un enjambre de cometas observables dentro de 1,35 millones de años. La influencia de esta estrella se sentirá en nuestro Sistema Solar durante mucho tiempo, generando una catástrofe sin precedentes en nuestro planeta, aseveran.

Aunque ello no supone un riesgo inmediato, se espera que otros estudios permitan a las nuevas generaciones encontrar un método para desviar los asteroides y cometas para ese entonces. “Este será el evento más fuerte en el futuro y en la historia del Sistema Solar”, concluyen los autores.

50

 

Fuente: lapagina.com.sv

El Observatorio de Dinámica Solar de la NASA tomó una fotografía en la que se puede ver al sol como si estuviese sonriendo, según reportan algunos portales de noticias y de acuerdo a lo reproducido por RT.

sol1
Al inclinar la cabeza hacia la izquierda, se puede ver en la fotografía como si la estrella tuviese dos ojos, una nariz, una boca e incluso algo de cabello.
Según el portal Mashable, Karl Battams (el científico que posteó la foto) explicó que la línea oscura de la boca es un filamento solar, compuesto de una larga parte de plasma. Y las regiones oscuras, como el pelo y la nariz son hoyos coronales, según Battams, y generan viento solar.
06503146_xl
Fuente: hispantv.com

0 671

Cada dos años, el Fondo de Cultura Económica convoca al Premio Internacional Ruy Pérez Tamayo de Divulgación de la Ciencia. Participan obras inéditas que aspiran a ser publicadas en la colección La Ciencia para Todos. En el concurso anterior (2014) resultó finalista una obra escrita por dos jóvenes físicos médicos, Juan Pablo Cruz Bastida y Diana García Hernández, graduados 2012 de la Maestría en Física Médica del Posgrado en Ciencias Físicas UNAM.

Ellos concursaron con el libro El Fotón de Asclepio, que fue publicado en 2015 como consecuencia del reconocimiento obtenido. A fin del año pasado tuvo lugar el lanzamiento del libro en la Librería Rosario Castellanos del FCE; asistieron al evento tutores, graduados y alumnos de la Maestría, así como público en general.

La obra El Fotón de Asclepio presenta a los fotones, específicamente los rayos-X y gamma, como los nuevos ojos y la artillería de la medicina moderna. Asclepio es el dios griego de la Medicina (luego fue llamado Esculapio en Roma, es quien porta el bastón con una serpiente enrollada que es símbolo recurrente de la medicina en los escudos de escuelas y sociedades médicas modernas).

El relato nos lleva a la Grecia antigua para encontrar no sólo a Asclepio sino también a Leucipo y Demócrito, precursores de la teoría atómica de la materia. Dentro de la visión dual onda-materia, el fotón es la partícula asociada con los procesos cuánticos en que participan las ondas electromagnéticas.

El átomo y su núcleo, los rayos-X, los núcleos radiactivos y los fotones, fueron junto al resto de conceptos asociados a la física cuántica, los protagonistas de la revolución de la física en el siglo XX, y sus prontas aplicaciones en la medicina la transformaron radicalmente.

El libro fue escrito para un público con conocimientos generales de ciencia, y con interés por aprender más sobre física moderna, en particular cómo ésta ha impactado el diagnóstico de las enfermedades (a través del uso de radiografías e imágenes de radionúclidos, ambas obtenidas gracias a los fotones) y el tratamiento con radioterapia (a través de radioterapia externa y braquiterapia, también usando con fotones).

El Fotón de Asclepio es una obra muy amena, salpicada de un fino sentido del humor, que lleva al lector desde las bases de la descripción atómica de la materia (“La domesticación del átomo”) a las técnicas de diagnóstico (“Los nuevos ojos de la medicina”), las de radioterapia (“El papel de la artillería”), concluyendo con un capítulo dedicado al uso responsable de la radiación a través de normas de protección y de programas de formación para físicos médicos (“El legado del tío Ben”).

El libro incluye cuadros independientes para aclarar conceptos relativamente “avanzados”, cápsulas biográficas interesantes y varios ejemplos ilustrados del uso incontrolado de fuentes radiactivas y rayos X al inicio del siglo XX. Los autores son aficionados al cine y hay referencias a películas relacionadas con temas relevantes del texto.

Quizás su característica más notable es que las ilustraciones de las técnicas de diagnóstico y terapia provienen mayoritariamente de centros de salud mexicanos donde laboran graduados de nuestro programa de maestría. Éste es uno de muchos detalles de calidad que llenan esta magnífica obra que debería ser el referente actual para el tema de la física médica dentro de la colección del FCE.

Un equipo de astrónomos ha encontrado evidencias claras de la presencia de un planeta similar a la Tierra orbitando alrededor de Próxima Centauri, una estrella que se encuentra a 4.2 años luz de la Tierra, lo que la convierte en la más cercana al Sol fuera de este sistema.

Pero uno de los hallazgos que lo hacen todavía más interesante es que, al encontrarse en una zona de habitabilidad, es decir, con condiciones de temperatura que permiten la existencia de agua, es un candidato para buscar vida.

A este mundo, que ha llevado años descubrir, se le ha denominado Próxima b. Su masa es parecida a la del nuestro, gira cada 11 días alrededor de la vecina estrella y sus resultados se dieron a conocer en la revista Nature.

Se trata de una fría enana roja, demasiado débil para observarla a simple vista, aunque vecina de un sistema estelar mucho más brillante y popular: Alfa Centauri, al que seguramente pertenece, explican los investigadores en el artículo científico.

“Dedicamos dos años a diseñar esta campaña (Pale Red Dot), que ha observado Próxima Centauri; es verdaderamente emocionante saber que hay un planeta parecido a la Tierra en torno a la estrella más cercana a nosotros”, dijo Guillem Anglada, el investigador encargado de llevar el estudio desde la Universidad Queen Mary de Londres.

2326553

¿Cómo y qué se logró?

Usando una técnica de búsqueda de exoplanetas conocida como espectroscopía Doppler o de velocidad radial, los investigadores detectaron el ligero tirón gravitatorio que el planeta ejercía sobre su estrella. Éste la obliga a dibujar una pequeña órbita y se traduce en oscilaciones en su luz, que los científicos pudieron medir.

Durante el primer semestre del 2016, Próxima Centauri ha sido observada regularmente con el espectrógrafo HARPS del telescopio de 3.6 metros que tiene el Observatorio Europeo Austral (ESO) en La Silla (Chile), y monitorizada simultáneamente con otros telescopios de todo el mundo. Los datos se han comparado con los que registró el instrumento UVES, también de ESO, en años anteriores.

Pero ¿cómo se busca 
la vida en otros mundos?

Cristina Rodríguez López, investigadora del IAA y coautora del trabajo, ha explicado que lo primero para ver si un planeta tiene vida, como la conocemos, es la presencia de agua a través del vapor de agua en su atmósfera.

Luego, para ver si tiene atmósfera, un primer paso es comprobar que el planeta transite o eclipse su estrella; si esto es así, “analizamos con un espectrógrafo la luz de la estrella mientras el planeta la eclipsa y la composición de su atmósfera”, comentó la investigadora.

 

Fuente: eleconomista.com.mx

Si bien el Wifi y el Bluetooth son ahora tecnologías bien establecidas, se obtendrían varias ventajas si se acortara la longitud de onda de las ondas electromagnéticas usadas para transmitir información.

La llamada comunicación mediante luz visible (VLC, por sus siglas en inglés) emplea partes del espectro electromagnético que no están reguladas y que en principio son más eficientes energéticamente. La VLC también ofrece una forma de combinar transmisión de información con iluminación y tecnologías de visualización, por ejemplo, usando lámparas de techo para proporcionar conexiones de internet a los ordenadores portátiles al mismo tiempo que se ilumina la sala.img_38160

Muchas de tales aplicaciones VLC precisan de diodos emisores de luz (LEDs) que produzcan luz blanca. Estos se fabrican normalmente combinando un diodo que emite luz azul con fósforo, que convierte parte de esta radiación en luz roja y verde. Sin embargo, el proceso de conversión no es lo bastante rápido como para alcanzar la velocidad con la que el LED puede ser conectado y desconectado.

La VLC que utiliza luz blanca generada de esta forma está limitada a unos cien millones de bits por segundo.

Según especialistas, se estima que en el año 2050, seremos 9 mil millones de personas en nuestro planeta, con más de un 80% de la población mundial viviendo en zonas urbanas. Además, nuestro planeta ya no tendrá suelos disponibles y seguros para cultivar plantas y hortalizas.

Sin embargo, existe una alternativa a esta problemática: la creación  de granjas verticales. Este concepto fue desarrollado por Dickson Despommier, microbiólogo, ecólogo y profesor de salud pública y medioambiental en la universidad de Columbia en Nueva York. Según él, las granjas verticales presentan la doble ventaja de ahorrar tierras agrícolas y de producir cerca de los consumidores.

En efecto, subraya el hecho de que si las técnicas agrícolas y los modos de consumo actuales no cambian, haría falta deforestar el equivalente de un territorio más grande que Brasil para poder alimentar a la población. Producir más en un espacio reducido, tal es el desafío de las granjas verticales.

Pero ¿cómo se organiza una granja vertical en medio de una ciudad ? Sólo se necesita un gran hangar en un edificio que dispone de dispositivos permitiendo cultivar en zonas urbanas a gran escala. Dentro de este espacio cerrado, miles de estantes llenos de hortalizas dispuestas verticalmente están creciendo.

Existen 2 principales técnicas de cultivo fuera de suelo que pueden ser utilizadas en una granja vertical: la hidroponia y la aeroponia.

Granjas Verticales - HidroponiaEn la hidroponia, se hunden las raíces de las plantas directamente en el agua que circula en circuito cerrado y en la cual se inyectan nutrientes para el crecimiento de las plantas (nitrógeno, potasio y fósforo). Ya que utiliza poca agua y que no requiere pesticidas, el cultivo hidropónico aparece más sostenible que la agricultura tradicional aunque los nutrientes utilizados son a menudo abonos minerales que proceden de la industria química.

La otra técnica fuera de suelo utilizada es la de aeroponia. Esta técnica consiste en nutrir las plantas mediante la vaporización una mezcla biológica de agua y nutrientes sobre las raíces y las hojas.

En la ciudad de Newark (estado de New Jersey, EEUU), se construyó la granja vertical más grande del mundo. Con 6500 m2 de superficie sin ningún contacto con el suelo o con el sol, la granja aeropónica de la empresa AeroFarmsvio sus primeros resultados en el año 2016, después de un año de producción intensa.

Las ventajas de las granjas verticales son numerosas:

 

  • Rendimientos elevados a lo largo del año (se pueden cosechar cantidades significativas de hortalizas sobre una superficie relativamente pequeña)
  • Llegada a madurez de las hortalizas más rápida, permitiendo varias cosechas al año
  • Reducción del uso del agua
  • Ausencia de pesticidas y OGM
  • Ausencia de enfermedades debido a plagas ya que las plantas se cultivan fuera de suelo
  • Ausencia de maquinaria agrícola tradicional : tractores, pulverizadores, sembradoras…
  • Reciclaje integral de los nutrientes que no fueron utilizados

 

Aunque este método requiera mucha electricidad (luz artificial  día y noche y calefacción continua en ciertos países), notamos que estos gastos energéticos se compensan con el hecho de que las plantas crezcan dentro de la ciudad misma, cerca de los consumidores, lo que reduce los gastos de transporte. Así, se prevé que la granja de Newark podrá producir 1000 toneladas de coles y ensaladas cada año, generando la creación de 78 empleos.

En su libro The Vertical Farm: Feeding the World in the 21st Century, Despommier estima que una granja vertical de 30 pisos podría alimentar a 10.000 personas para un rendimiento 4 a 5 veces más elevado que el rendimiento promedio de la agricultura tradicional. Estima también que si se colocan sensores en el techo de cada piso, se podría recuperar la evapotranspiración de las plantas para producir agua pura. Según el microbiólogo, los cultivos aeropónicos asociados a la producción de energías renovables (eólica y solar) y al reciclaje de los materiales de producción permitirían aumentar la productividad.

Sin embargo, este método no encuentra unanimidad ya que para muchas personas, comer hortalizas que crecieron fuera de suelo y sin luz del día no se puede concebir. A pesar de todo, la aeroponia propone un método sostenible de agricultura urbana, ecológica y de proximidad que hace frente a las problemáticas de desarrollo urbano y de alimentación en el mundo.

Existen proyectos de granjas urbanas en muchos países, que pueden tomar diferentes formas.

660578d8c5678a69c86730fac2206bcb-pearlsquareEn Japón, donde la densidad de población es muy elevada, las granjas urbanas se multiplican. La catástrofe de Fukushima ha acelerado el desarrollo de tales edificios, que aseguran la seguridad alimentaria del país. En este país, no se trata de granjas verticales sino de contenedores opacos y estériles que funcionan con LED, durante las 24 horas del día. La granja «Mirai», ubicada en Miyagi, puede producir 10.000 lechugas por día. Es la granja iluminada con LED más grande del mundo.

En EEUU, otro tipo de granja urbana se está desarrollando y consiste en «rooftop farms», o sea invernaderos urbanos en los tejados. Se trata de recuperar el espacio de los tejados de los edificios para colocar invernaderos. Esta técnica presenta varias ventajas: los cultivos aprovechan la luz del día, los invernaderos funcionan gracias a paneles solares colocados en el tejado y pueden también disfrutar de la calefacción del edificio. El ejemplo más famoso de estos «rooftop farms» es la granja Lufa en Montreal (creada en 2013), primer invernadero comercial sobre tejado del mundo. Se pueden encontrar estos «rooftop farms» en muchas ciudades tales como Singapur, Londres, Basilea.

Fuente: amazings.net

Los resultados de una nueva investigación sugieren que hay agujeros negros, antiquísimos, que jamás fueron estrellas.

La evidencia principal de que esto puede ser así es el extraño perfil de una emisión de radiación, distinto a cualquier otro, y que solo se explicaría por la formación de un agujero negro directamente a partir de gas del entorno, en el universo primigenio, cuando las condiciones reinantes en el cosmos eran muy diferentes de las actuales. Estos raros agujeros negros, catalogados como “de colapso directo”, ya fueron predichos por teóricos hace más de un decenio. Ahora parece que hay una evidencia de su existencia.

La nueva investigación es obra del equipo de Aaron Smith y Volker Bromm, de la Universidad de Texas en la ciudad estadounidense de Austin, así como Avi Loeb, del Centro para la Astrofísica (CfA) en Cambridge, Massachusetts, gestionado conjuntamente por la Universidad Harvard y el Instituto Smithsoniano, todas estas entidades en Estados Unidos.

Estos agujeros negros de colapso directo podrían ser la solución a un rompecabezas que ha desconcertado desde hace mucho tiempo a la comunidad científica: ¿cómo se formaron los agujeros negros supermasivos de los primeros tiempos del universo? Hay fuertes evidencias de su existencia, y de hecho son necesarios para energizar los luminosísimos quásares detectados en el universo muy joven (captable en regiones a gran distancia, tantos años atrás en el tiempo como años-luz las separan de la Tierra). Sin embargo, la explicación tradicional de que tales agujeros negros supermasivos y antiquísimos son cadáveres estelares que ganaron masa absorbiéndola poco a poco de su entorno se topa con varios problemas; esencialmente estos indican que tales agujeros no pudieron crecer tanto en tan poco tiempo.

  Imagen basada en una simulación ejecutada por una supercomputadora del entorno cosmológico donde el gas primigenio sufre el colapso directo del que nace un agujero negro. El gas fluye a lo largo de filamentos de materia oscura que forman una red cósmica conectando estructuras en el universo temprano. Las primeras galaxias se formaron en la intersección de estos filamentos de materia oscura. (Imagen: Aaron Smith/TACC/UT-Austin)


Imagen basada en una simulación ejecutada por una supercomputadora del entorno cosmológico donde el gas primigenio sufre el colapso directo del que nace un agujero negro. El gas fluye a lo largo de filamentos de materia oscura que forman una red cósmica conectando estructuras en el universo temprano. Las primeras galaxias se formaron en la intersección de estos filamentos de materia oscura. (Imagen: Aaron Smith/TACC/UT-Austin)

La explicación tradicional de cómo crecen en el corazón de la mayoría de las galaxias en la época actual los agujeros negros supermasivos con millones (y hasta varios miles de millones) de veces la masa del Sol es la que sigue a continuación. Un agujero de este tipo comienza siendo uno de tipo estelar, o sea el cadáver ultradenso que perdura tras la explosión en supernova de una estrella de gran masa. Este agujero negro estelar es, por así decirlo, la semilla de uno supermasivo. Comienza a ganar masa absorbiendo gas de sus alrededores. Si se dan las condiciones oportunas, puede fusionarse con otros agujeros negros semilla.

Esta teoría convencional no explica los agujeros negros supermasivos en quásares extremadamente distantes (y que por tanto ya poseían su colosal masa cuando el universo era aún muy joven). Los quásares pueden resultar visibles para nosotros a pesar de su distancia de miles de millones de años-luz gracias a su increíble brillo. Este resplandor procede de la materia que cae al agujero negro supermasivo. Al acercarse a él, se calienta hasta alcanzar temperaturas de millones de grados, y eso provoca la generación de chorros que brillan como faros a través del universo.

Estas galaxias antiquísimas podrían haber contenido la primera generación de estrellas creadas después del Big Bang. Y aunque entre estas estrellas debió haber bastantes que estallaron en forma de supernova, no parece posible que pudieran actuar como semillas tempranas de quásar, ya que no podía existir el gas necesario alrededor del agujero negro para que este pudiera crecer hasta la masa necesaria. No podía existir todo ese gas ahí porque por fuerza tuvo que ser expulsado por los vientos de las estrellas calientes recién formadas.

Durante décadas, los astrónomos han llamado a este enigma el “problema de la semilla del quásar”.

En 2003, Bromm y Loeb dieron forma a una idea teórica para conseguir que en una galaxia del universo temprano se formase un agujero negro que creciese en masa lo bastante deprisa como para ser supermasivo no mucho tiempo después. Los astrónomos llamaron más tarde a este proceso “colapso directo”.

El proceso de colapso directo empieza con una nube primigenia de hidrógeno y helio, bañada en un mar de radiación ultravioleta. Esta nube se contrae por efecto del campo gravitatorio de un halo de materia oscura. Normalmente, la nube debería poder enfriarse y fragmentarse para formar estrellas. Sin embargo, los fotones ultravioleta mantienen el gas caliente, evitando por tanto la fragmentación y la formación estelar. El gas se va compactando inexorablemente, pero sin fragmentarse, hasta que llega un momento en que el objeto se derrumba sobre sí mismo por su enorme masa, generándose a partir de aquí un agujero negro masivo.

Las condiciones cósmicas para este fenómeno no se dan hoy en día, pero en cambio sí existían en aquel período de tiempo de la historia del universo.

La corteza de la Tierra es una capa relativamente delgada de roca que da forma a los continentes y al lecho oceánico. La corteza se asienta sobre placas tectónicas que se mueven lentamente con el tiempo, en una capa llamada litosfera. En el fondo de las placas, a unos 80 a 100 kilómetros por debajo de la superficie, se inicia la astenosfera. El interior de la Tierra fluye más fácilmente en esta última, y se cree que la convección aquí ayuda a impulsar la tectónica de placas, pero cómo sucede eso exactamente y cómo es el límite entre la litosfera y la astenosfera no está nada claro.

Para observar más de cerca estos procesos, el equipo de James Gaherty, del Instituto de la Tierra (dependiente de la Universidad de Columbia en la ciudad estadounidense de Nueva York), instaló una red de sismógrafos en el fondo del Océano Pacífico, cerca del centro de la placa del Pacífico. Registrando las ondas sísmicas generadas por los terremotos, pudieron “mirar” dentro de la Tierra y crear imágenes del flujo del manto, de una forma similar a cómo un médico obtiene una imagen de un hueso roto.

Las ilustraciones muestran cómo (a) un flujo impulsado por un gradiente de presión y (b) la convección a pequeña escala impulsada por la densidad podrían actuar en la astenosfera. Arriba tenemos una vista de la superficie que muestra las ubicaciones de los sismómetros de NoMelt. La flecha roja indica la dirección del flujo. (Imágenes: Lin et al., Nature 2016)

Las ilustraciones muestran cómo (a) un flujo impulsado por un gradiente de presión y (b) la convección a pequeña escala impulsada por la densidad podrían actuar en la astenosfera. Arriba tenemos una vista de la superficie que muestra las ubicaciones de los sismómetros de NoMelt. La flecha roja indica la dirección del flujo. (Imágenes: Lin et al., Nature 2016)

Los resultados aportan la visión más detallada hasta la fecha de cómo fluye el manto de la Tierra bajo las placas tectónicas del mar. Lo encontrado parece refutar la creencia común de que la deformación más intensa en el manto está controlada por el movimiento a gran escala de las placas. En vez de eso, las imágenes de más alta resolución logradas hasta hoy denotan que procesos a escala menor tienen efectos más poderosos.

El nuevo estudio forma parte del proyecto NoMelt, que fue diseñado para explorar la frontera entre la litosfera y la astenosfera en el centro de una placa oceánica.

Disponiendo de un conocimiento más detallado del motor subyacente en la tectónica de placas, los científicos esperan entender mejor los mecanismos que impulsan el movimiento de las placas y que influyen en procesos relacionados, incluyendo los que implican a terremotos y volcanes.

 

En la antigüedad muy pocas mujeres tenían acceso a la educación, tan solo las que pertenecían a la aristocracia tenían este privilegio, esto se debe que desde el patriarcado se le ha asignado a las mujeres todo lo referente a la reproducción, la maternidad, la ternura, la delicadeza y lo que esté limitado al ámbito doméstico, porque realmente es en “esa esfera donde ella ha desarrollado las habilidades para desempeñarse” (Reinoso, 2008), siendo incapaces según determinadas concepciones, de poder realizar aportes como en el campo de las ciencias. Aun así existieron mujeres que lograron sobresalir pero no obtuvieron el reconocimientos por parte de la sociedad en general (Aupec, 1998) una de las razones a que se debía este hecho era que durante siglos las mujeres no podían poseer propiedades, por lo que quienes patentaban y obtenían beneficios de los inventos de muchas mujeres eran sus esposos, padres o parientes.

Es de esperarse que en una sociedad que excluye a la mujer lo hiciera en la mayoría de sus campos como la ciencia. Tradicionalmente se considera la ciencia (a pesar del cambio pensamiento hacia ella) como objetiva, neutrales y libre de valores: es decir “factores externos” como el genero no tienen cabida en ellas (Barral, 1999), en la ciencia existen sesgos sexistas, hay áreas científicas y tecnológicas que no son ajenas a los ideales culturales de masculinidad.

En la semioscuridad de un laboratorio casero, en la soledad de unas investigaciones clandestinas, en el anonimato de un seudónimo masculino o a la sombra del éxito de sus propios colegas varones. La historia de las primeras mujeres que dedicaron su vida y su intelecto a las investigaciones científicas no está exenta de ninguno de estos componentes, en ocasiones se dieron todos a la vez.

Muchos de sus estudios y descubrimientos han llegado a nuestros días con nombres y apellidos como Ada Lovelace,  Grace Hopper o  Marie Curie, otras son célebres exclusivamente en sus campos de investigación aunque de sus hallazgos todo el mundo tiene conocimiento. La estructura de doble hélice del ADN; los genes ‘saltarines’ capaces de saltar entre diferentes cromosomas, los chips microelectrónicos o los procesadores de textos son solo algunos ejemplos.

La Historia está llena de heroínas anónimas. Este 8 de marzo, Día de la Mujer, traemos algunas de las que, desde ese anonimato infame, dejaron su huella en la historia de la ciencia y la tecnología.

Hipatia de Alejandría

2015111311452812449Fue la primera mujer en realizar una contribución sustancial al desarrollo de las matemáticas. Gracias al film de Alejandro Amenábar, ‘Ágora’, un amplio público ha sabido de la vida de esta científica que escribió sobre geometría, álgebra y astronomía, mejoró el diseño de los primitivos astrolabios —instrumentos para determinar las posiciones de las estrellas sobre la bóveda celeste— e inventó un densímetro.

Nació en el año 370, en Alejandría (Egipto), y falleció en el 416, cuando sus trabajos en filosofía, física y astronomía fueron considerados como una herejía por un amplio grupo de cristianos, quienes la asesinaron brutalmente.

Marie Sophie Germain

6”La ley general de que el aprendizaje de las mujeres debe ser conseguido a través de medidas heroicas aún no ha quedado obsoleta. Ellen Watson (la primera mujer que asistió a clases de Matemáticas en el University College de Londres) hizo todos sus estudios antes de la hora del desayuno, porque estaba obligada a dedicar todo el tiempo del día a la enseñanza de sus hermanos y hermanas más jóvenes sin que su familia siquiera sospechara”. Estas palabras escribía Marie Sophie Germain, de su coetánea inglesa a principios del siglo XIX. Matemática, física y filósofa francesa que hizo importantes contribuciones a la teoría de números y la teoría de la elasticidad. Uno de los más importantes fue el estudio de los que posteriormente fueron nombrados como números primos de Sophie Germain. Consciente de los impedimentos sexistas a los que se enfrentaba firmó numerosas investigaciones bajo el seudónimo masculino: “Por temor a la burla ligada a una mujer científica, he adoptado previamente el nombre de Monsieur LeBlanc”.

Amalie Emmy Noether

emmy-noether-600x350Se la considera la mujer más importante en la historia de las matemáticas. Nacida en Alemania en 1882, la figura de Noether ocupa un lugar imprescindible en el ámbito de las matemáticas, especialmente en la física teórica y el álgebra abstracta, con grandes avances en cuanto a las teorías de anillos, grupos y campos. A pesar de esto, y de ser reconocida por la comunidad matemática, no se le aceptó como investigadora y docente en el Instituto de Matemáticas de Göttingen. Tuvieron que interceder por ella Einstein y Hilbert para que se le otorgaran algunos reconocimientos y pudiera percibir un sueldo modesto. A finales de los años 20 huye de Alemania por el auge nazi, no sólo por los prejuicios que existían entonces contra las mujeres científicas, sino por su condición de judía, socialdemócrata, y pacifista.

Falleció en EEUU, después de ser sometida a una cirugía uterina. Albert Einstein fue el autor de su nota necrológica: “La más grande, significativa y creativa genio matemático producida en la historia del desarrollo educativo de las mujeres”.

Lise Meitner

P_13Física nacida en Austria en 1878 con un amplio desarrollo en el campo de la radioactividad y la física nuclear, su intervención fue crucial en el hallazgo teórico clave para la obtención de la energía atómica. Meitner descrubrió el procedimiento por el cual se podría obtener dicha energía atómica, y que más tarde serviría para construir la bomba atómica, aunque la física no quiso colaborar en el proyecto de una bomba de ese alcance. Su colega de laboratorio, Otto Hahn, continuó con la investigación y en 1944 le dieron el premio Nobel de Química dejando a Meitner fuera de todo reconocimiento. Años más tarde, el meitnerio (elemento químico de valor atómico 109) fue nombrado así en su honor. Su genio ha sido reconocido asimismo con múltiples premios. Paradójicamente en 1954 le dieron la Medalla Otto Hahn.

Susan Jocelyn Bell Burnell

JocelynAstrofísica británica que descubrió la primera radioseñal de un púlsar. Nació en 1943, en Irlanda del Norte y su descubrimiento fue parte de su propia tesis. Esa radiación es lo que hoy se conoce como púlsar, una estrella de neutrones que gira sobre sí misma y que es el único objeto donde la materia puede ser observada a nivel nuclear.  Jocelyn Bell Burnell publicó un artículo en ‘Nature’ que dio la vuelta al mundo. Sin embargo, el reconocimiento sobre este descubrimiento fue para Antony Hewish, su tutor, a quien se le otorgó el premio Nobel de Física en 1974.

Bell tenía claro el lugar desde el que hablaba e investigaba: “Una de las cosas que las mujeres aportan a un proyecto de investigación, o de hecho cualquier proyecto, es que vienen de un lugar diferente, tienen un trasfondo diferente. La ciencia ha sido nombrada, desarrollada, interpretada por hombres blancos desde hace décadas, pero las mujeres pueden ver la sabiduría convencional desde un ángulo ligeramente diferente”.

Barbara McClintock

151119-004-A2919136

Nacida en EEUU en 1902, esta genetista sí fue reconocida con un premio Nobel de Fisiología y Medicinapor sus increíbles hallazgos sobre los genes saltarines. Pero tuvieron que pasar 30 años desde que enunció su avanzada teoría hasta que se lo otorgaron. Hoy, el hecho de que los genes sean capaces de saltar entre diferentes cromosomas es un concepto esencial en genética y es imprescindible para la comprensión de los procesos hereditarios. “ Nunca pensé en parar, y odiabadormir. No puedo imaginar tener una vida mejor”.

Rosalind Elsie Franklin

rosalind-franklin-1920-1_51f10a8e62b9a-p“La ciencia y la vida ni pueden ni deben estar separadas”. Franklin es la científica británica con cuyos datos James Watson y Francis Crick formularon en 1953 el modelo de doble hélice que describe la estructura del ADN, uno de los hitos de la biología del siglo XX. Pese a que fue Rosalind Franklin quien obtuvo los datos que permitieron definir mediante imágenes tomadas con rayos X que el ADN tiene estructura de doble hélice, no fue premiada con el Nobel de Medicina y Fisiología que sí se llevaron sus colegas Watson y Crick. Estos nunca hicieron mención de su nombre ni de su trabajo y le mostraron siempre su desdén como científica. Había fallecido en 1958, cuatro años antes de que la Academia Sueca reconociese la importancia de su descubrimiento.

Las mujeres tecnólogas

Los avances posteriores en tecnología no se entienden sin las investigaciones científicas que se realizaron previamente en campos como las matemáticas o la ingeniería. Muchas de las que luego dedicaron su ingenio a la tecnología como Hedy Lamarr o Joan Clarke, provenían de dichos campos.

La historia de la computación ha ocultado durante años a la mujeres que estuvieron detrás con su trabajo y entrega. Como el caso paradigmático de las mujeres del ENIAC. Un trabajo que realizaron en los años 40 pero que hasta 1986 fue invisible. Kathryn Kleiman las descubrió y las dio conocer al realizar una investigación en Hardvard sobre el papel de las mujeres en la computación. En la descripción del puesto de trabajo de estas mujeres se indicaba que para realizar esta labor era necesario “esfuerzo, creatividad mental, espíritu innovador y un alto grado de paciencia ya que el ENIAC no tenía manual de programación”.

Las  mujeres que hoy en día se dedican a la computación son herederas del trabajo que sus antecesoras hicieron.

Lynn Conway

LynnAtPARC.LmCélebre pionera en el campo de diseño de chips microelectrónicos. Sus innovaciones desarrolladas durante los años 70 en el Centro de Investigación de Palo Alto en los Estados Unidos han causado un enorme impacto en el diseño de chips a nivel mundial. Se basan en su trabajo muchas de las compañías tecnológicas más punteras. En 1965 participó en el diseño del primer ordenador superescalar.

Lynn Conway es transexual y lo reivindica públicamente. De hecho, fue una de las primeras mujeres transexuales en recibir una terapia de sustitución hormonal y una reasignación quirúrgica. Poco antes de someterse a la cirugía para la reasignación de género en 1968, Lynn fue despedida de IBM donde trabajaba a causa de su transexualidad, perdiendo así el trabajo que había realizado para ellos.

Frances E. Allen

fran-allenNacida en EE.UU en 1932, fue la primera mujer que recibió el premio Turing, equivalente al Nobel de Informática, en 2007 por sus contribuciones que mejoraron sustancialmente el rendimiento de los programas de computador y aceleraron el uso de sistemas de computación de alto rendimiento. “Soy una exploradora en casi todos los sentidos”, se definía la propia Allen.

Investigadora de IBM, pionera en el campo de la automatización de tareas paralelas y optimización de compiladores (programas que traducen un programa escrito en un lenguaje de programación a otro) fue nombrada miembro de honor de IBM convirtiéndose en la primera mujes en lograr dicho reconocimiento. Su trabajo ha contribuido a los avances de los ordenadores de altas prestaciones para resolver problemas como la predicción del tiempo, la secuenciación del ADN, y las funciones de seguridad nacional.

mujer-laboratorio_EDIIMA20150307_0430_13A pesar de los condicionamientos sociales, de toda esa cultura machista han existido y existen mujeres que cada vez se encuentran más en el campo de la ciencia, existe un porcentaje bajo pero significante del 25% de mujeres investigadoras científicas en el mundo entero, según las estimaciones del Instituto de Estadística de la UNESCO.  

El nacimiento intelectual de la Revolución científica impulsó a examinar y descubrir el universo y de sus fuerzas, la naturaleza del cuerpo humano y de sus funciones. Los hombres utilizaban telescopios y rechazaban la tradicional insistencia sobre la superficie lisa de la luna. Galileo, Leibniz y Newton estudiaron e hicieron gráficos de los movimientos de los planetas, descubrieron la gravedad y la autentica relación entre la tierra y el sol. Fallopio disecciono el cuerpo humano, Harvey descubrió la circulación de la sangre, y Leeuvenhoek descubrió espermatozoides en su microscopio.

Para las mujeres, sin embargo no hubo Revolución científica. Cuando los varones estudiaban la anatomía femenina, cuando hablaban de los órganos reproductores de la mujer, del papel de esta en la procreación, dejaban de ser científicos. Sus conclusiones sobre las mujeres estaban gobernadas por la tradición y la imaginación, no por la observación científica. Los escritos de autores clásicos como Aristóteles y Galeno siguieron teniendo la misma autoridad que cuando fueron escritos, mucho después de que se hubieran dejado de considerar en otras áreas. Los hombres hablaban en nombre de la nueva ciencia, pero sus palabras procedían de la antigua misoginia. En nombre de la ciencia dieron una supuesta base fisiología a las ideas tradicionales sobre la naturaleza, la función y el papel de la mujer. La ciencia reafirmaba lo que los hombres siempre habían sabido lo que la costumbre, la ley y la religión habían postulado y justificado. Con la autoridad de su investigación “objetiva” y “racional” reinstauraron antiguos supuestos y llegaron a las mismas conclusiones tradicionales: la innata superioridad del varón y la justificante subordinación de la mujer.

Como había descubierto Marie de Gournay, la ensayista francesa del siglo XVII, quienes se dedicaban al estudio científico veían a las mujeres como si estas fuesen de una especie diferente, menos que humanas, en el mejor de los casos, un error de la naturaleza, adecuadas solo  a complacer al hombre.

Historia de la mujer en la ciencia

Si se empieza analizar el papel de la mujer en el pasado se puede dar cuenta de la importancia que esta jugó y juega en la sociedad, se estima que el aporte de las mujeres a la ciencia se remonta a hace 3200 años, sus trabajos y sus logros han sido, indudablemente, decisivos para el conocimiento de la ciencia. Entre los primeros científicos, hay que tener en cuenta a la mujer que fabricaba utensilios y acumulaba conocimientos; mediante la recolección de plantas, descubrió propiedades medicinales en éstas; aprendió a secar, almacenar y mezclar sustancias vegetales y a aplicarlas como tratamiento efectivo para diversas enfermedades. Tal fue su aporte, que desde la botánica de las primeras sociedades no hubo mayores adelantos en la medicina sino hasta el descubrimiento de las sulfas y los antibióticos en el siglo XX (Aupec, 1998).

Sin embargo luego de un largo periodo de exclusión de las mujeres de la ciencia, en las últimas décadas, poco a poco la mujer ha ido liderando investigaciones; este nuevo papel de la mujer en la ciencia es gracias a la discusión y lucha feminista de varias generaciones de mujeres, donde las académicas han reconocido de la escasez de mujeres en el campo.

Aunque exista una evolución de las escalas científicas de las mujeres falta luchar más por adentrarse a este mundo. Cada vez más inician y terminan mujeres carreras científicas, e incluso en un mayor porcentaje que los hombres, esta relación se invierte al llegar a los puestos de investigadores y profesores, de forma que se va acentuando esa diferencia según se asciende en la escala investigadora. También es cierto que es lamentablemente frecuente ver mujeres ocupando puestos de menor responsabilidad que hombres de igual o menor capacitación.

Inmersas en una sociedad para los hombres

Las mujeres estamos inmersas en una sociedad hecha para hombres, la mayoría de cosas están diseñados para ellos. La asociación entre masculinidad y tecnología se reproduce constantemente en la vida cotidiana, siendo la capacidad tecnológica masculina tanto un producto como un esfuerzo de su poder en la sociedad, esto se puede detectar en que tecnologías producidas para ser usadas por las mujeres pueden ser sumamente inapropiadas para las necesidades de la mujeres, e incluso, perniciosas, a la vez que incorporan ideologías masculinas de cómo deben vivir las mujeres.

Los estudios de ciencia y tecnología se han centrado en las relaciones de producción pagadas y en las primeras etapas de la producción tecnológica y obvian como por ejemplo la división sexual del trabajo; se debe tener en cuenta también que la misma mujer ha generado que sea excluyente para ejercer funciones importantes en la sociedad, en ocasiones desconfiamos de nuestras propias capacidades, ejemplo cuando preferimos acudir a consultas médicas con hombres, pues desconfiamos de las especialistas o cirujanas.

Pioneras de la ciencia

De acuerdo a la UNESCO (2007) son 15 mujeres las que se consideran pioneras de las ciencias:

Marie Curie(1867-1934), Lise Meitner (1878-1968), Gerty Cori (1896-1957) Irène Joliot-Curie (1897-1956), Maria GoeppertMayer (1906-1972), Rita Levi-Montalcini (1909-), Barbara McClintock (1902-1992), Grace Murray Hopper(1906-1992), Dorothy Crowfoot Hodgkin (1910-1994), Gertrude Elion(1918-1999), Rosalyn Yalow(1921-2011), Jocelyn Bell (1943-), Rosalind Franklin (1920-1958), Christiane NüssleinVolhard (1942-), Linda B. Buck(1947-), mujeres que realizaron y realizan grandes estudios contribuyendo a la ciencia, grandes premios nobel en biología, física y química.

La mujer con su fuerte lucha ha podido estar cada día mas dentro las esferas de la ciencia, tener voz y voto en ella, pero se debe seguir luchando para conquistar este campo que debido a condiciones externas e internas de la mujer han hecho que ella esté excluida, se debe no solo reformar las instituciones y de alfabetizar en ciencia y tecnología a las mujeres si no de reformar la propia ciencia y la imagen de las mujeres en la ciencia.

Por Miguel Tierrafría

León, Guanajuato. 27 de octubre de 2015 (Agencia Informativa Conacyt).- Dentro del espectro electromagnético, la tecnología de los terahertz (THz), emisiones que se ubican entre las microondas y los rayos infrarrojos, tiene un amplio campo de acción de investigación para sus aplicaciones, por lo que se llevó a cabo la Primera Reunión Mexicana de Ciencia y Tecnología de Terahertz (THzMX2015) en las instalaciones del Centro de Investigaciones en Óptica (CIO).

Esta primera reunión de quienes trabajan en el estudio de los terahertz sirvió para conocer las investigaciones que se están desarrollando en este tema, ya que de acuerdo con las ponencias expuestas existen múltiples aplicaciones de las emisiones de estos.

El doctor Enrique Castro Camus, quien se especializa en el estudio y aplicaciones de los THz en ámbitos como la biología, astronomía, medicina e industria, afirmó que la primera reunión que se gestó sirvió para conocer los trabajos de investigadores quienes están orientados a los terahertz y su importancia, ya que, dijo, los THz tienen aproximadamente entre 10 y 20 años de estudio.

espectro-visible-luz-banner02

“Lo que llamamos terahertz es una cierta porción del espectro electromagnético que se encuentra entre la zona de las microondas y el infrarrojo; es una parte de la radiación que en recientes años ha atraído muchísima atención, básicamente porque apenas hace unos 10 a 20 años se empezó a desarrollar la tecnología de esa área. Y sucede que lo que encontramos es que tiene un sinfín de aplicaciones tanto científica como en la industria”.

enrique-castro-camus01En la reunión llevada a cabo en el CIO se tuvieron pláticas como la de Albert Redo-Sanchez del Massachusetts Institute Technology (MIT) con la conferencia magistralCultural heritage inspection applications with terahertz waves based on reading a closed book, en la cual la emisión de los THz podría aplicarse para la lectura de libros antiguos y así continuar con el análisis de esos vestigios culturales sin dañarlos. En el mismo sentido, podría aplicarse para analizar pinturas y óleos y en general todo tipo de objetos de valor cultural e histórico en el mundo.

En este tenor, en octubre de este año, el doctor Enrique Castro Camus en conjunto con investigadores de Alemania publicó el artículo “Terahertz meets sculptural and architectural art: Evaluation and conservation of stone objects with T-ray technology”, en el cual mediante el análisis de un medallón de piedra de la colección del Museo del Estado de Baja Sajonia en Hannover, Alemania, y de una sección de un alféizar de la ventana desde el claustro histórico de la Catedral de Trier se comprueba la potencialidad de los THz como herramienta para la conservación.

Otra de las ponencias fue Fabricación por nanolitografía de antenas a frecuencias de terahertz, impartida por el doctor Francisco Javier González de la Universidad de San Luis Potosí, en referencia a poder detectar las emisiones de los THz que se emiten en el ambiente.

El doctor Castro Camus, anfitrión de esta primera reunión, quien es investigador titular B y miembro nivel II del Sistema Nacional de Investigadores (SNI), afirmó que el estudio de los THz, no solo en México sino en el mundo, se encuentra ‘en pañales’, ya que apenas se están descubriendo las potencialidades de estas emisiones.

“Tocamos temas de la fabricación propia de la tecnología para detectar y generar radiación de terahertz, tiene un campo muy abierto, la tecnología con que se cuenta no solo en México sino en el mundo es muy simple, un poco en pañales, entonces una de las pláticas invitadas abordó sobre las capacidades que tenemos hoy en día y de los esfuerzos que se están llevando a cabo para mejorar todos los dispositivos que tienen que ver con detectar y emitir en terahertz”.

Terahertz en astronomía

Los THz también se están analizando en otras áreas como biología, bioquímica, astronomía; en esta última se están analizando aquellas emisiones que llegan del espacio provenientes de estrellas y otros cuerpos celestes que yacen en el universo, que pueden contener información química sobre su composición.

reunion-aplicaciones-terahertz

Por último, el doctor investigador, encargado por parte del CIO de esta primera reunión, señaló que a pesar de ser la primera vez que se concretó tal reunión, resultó productiva por la riqueza de las ponencias en referencia a los trabajos que investigadores en México están realizando para descubrir las potencialidades de los THz en los diversos ámbitos: científicos, tecnológicos, industriales, educativos, entre otros.

visítanos también en: