La computación óptica utiliza fotones de luz en lugar de electrones para transmitir y procesar información. Debido a las grandes diferencias entre las propiedades del electrón y del fotón, la tecnología necesaria para aplicar la óptica en la computación requiere mucho tiempo y esfuerzo. Cada dispositivo electrónico, que utiliza pistas de cobre para transportar información, debe ser reinventado para hacer la misma función, pero usando canales capaces de transportar señales de luz. Esto resulta ser una tarea bastante complicada.
La tecnología de computadores ópticos todavía está en los primeros tiempos. Aún se habla de plazos muy largos hasta ver la aplicación comercial de híbridos óptico/electrónicos, y mucho más si se habla de dispositivos puramente ópticos. Eso respecto al procesamiento óptico de datos. Pero en lo que respecta a la transmisión de datos, actualmente es de uso común la transmisión de datos por cables de fibra óptica, sobre todo en grandes cantidades y a grandes distancias. El uso de esta tecnología, sin embargo, se limita a tramos concretos, o a redes enteras en ocasiones, donde es rentable transformar la información electrónica en óptica, y luego generar la señal con la potencia necesaria para ser enviada.
Esto es posible gracias a unos dispositivos mucho más aparatosos en comparación con los electrónicos, que tras décadas de evolución pueden hacer tareas muy complejas en chips minúsculos. Además, la señal óptica, pese a ser mucho más rápida que la electrónica, necesita más energía para hacer el mismo trabajo.
Cuello de botella
Viendo los problemas que se encuentra la tecnología de computación óptica, uno podría pensar que tardaremos bastante en disponer de dispositivos cuyos componentes funcionen internamente a la velocidad de la luz. Esto sería una gran revolución en lo que respecta a la velocidad perceptible de nuestros ordenadores. El culpable de que que vaya a ser un cambio tan brusco es el llamado cuello de botella que supone hoy en día la comunicación entre los diferentes chips componentes de nuestros PC.
El problema es que aunque los procesadores y los discos duros, por ejemplo, sean muy rápidos, la información debe transmitirse entre ellos a través de canales electrónicos cuya velocidad es notablemente menor. El resultado es que tanto el procesador como el disco duro deben esperar hasta que la información es transmitida, perdiendo eficiencia en el proceso. El usuario sabe que el nuevo procesador es el doble de rápido, y que su disco también lo es, pero percibe que la mejora no es tan evidente.
Solución óptica
Si los canales fueran ópticos, el cuello de botella desaparecería, porque el canal de transmisión de datos sería más rápido que los componentes electrónicos. Entonces veríamos trabajar a los diferentes componentes electrónicos a pleno rendimiento, lo que también sería una pequeña revolución. Esta es la idea de los dispositivos híbridos ópticos/electrónicos.
Sin embargo, si todo el sistema fuera puramente óptico, tanto los chips como los buses de comunicación trabajarían a la velocidad de la luz. Eso supondría un cambio radical en la percepción del usuario, puesto que la cantidad de datos que se podría procesar en el mismo tiempo es varios órdenes de magnitud mayor. Las tareas usuales que en un sistema actual pueden llevar algunos segundos, como iniciar un programa que requiera bastante memoria, o iniciar el sistema, se ejecutarían de manera prácticamente instantánea.
Plasmónica, luz a través de metal
Ahora parece que viviremos esa revolución antes de lo que creíamos gracias a la tecnología plasmónica. Esta tecnología se basa en el uso de plasmones.
Los electrones se mueven más o menos libremente por la superficie de los metales, por eso son tan buenos conductores. Como tienen tanta libertad, se producen oscilaciones de estos electrones cuando hay algún tipo de influencia externa, como un campo eléctrico cercano, o incluso la luz de ciertas longitudes de onda. Los plasmones son una cuantización de esas oscilaciones de la densidad de electrones libres en un metal.
Más concretamente, la tecnología usa lo que se llaman plasmones de superficie, que son los que están en la superficie de contacto entre un metal y un material no conductor, para conseguir controlar el fenómeno llamado 'Transmisión óptica extraordinaria' (Extraordinary optical transmission ). La transmisión óptica extraordinaria (TOE) es una interacción entre la luz y la superficie del metal. Cuando se produce con los parámetros adecuados, los plasmones de superficie entran en resonancia y permiten que la luz que incide en el metal sea transmitida por su superficie.
La fibra óptica permite transmitir luz a través de finos tubos huecos con paredes reflectantes que impiden que la luz escape. La plasmónica permite transmitir luz a través de cables de metal.
En el mercado en 5 o 10 años
Pues bien. Un equipo de investigadores europeos ha probado esta tecnología basándose en lo que en la web del proyecto llaman componentes nanoplasmónicos basados en polímeros.
Con esta tecnología, y usando básicamente los mismos procesos industriales de impresión de pistas metálicas sobre placas de silicio, se pueden fabricar dispositivos tan compactos como los electrónicos, incluso microchips, pero que utilicen las pistas metálicas para transmitir luz en lugar de electricidad. La aplicación de esta tecnología es económicamente viable, y abre las puertas a una nueva era en el hardware de computación y de transmisión de datos.
Ya se han establecido contactos con representantes de varias firmas importantes de la industria del sector, como son NEC y Panasonic entre otros, y los creadores esperan ver chips que usen esta tecnología en el mercado en un período de entre 5 y 10 años.
El proyecto está financiado por la Unión Europea, y en él colaboran el Instituto de Ciencias Fotónicas de la Universitat Politècnica de Catalunya , además de varias instituciones francesas, alemanas y danesas. Ha tenido un coste final de unos 2 millones de euros y una duración de tres años.
La tecnología de computadores ópticos todavía está en los primeros tiempos. Aún se habla de plazos muy largos hasta ver la aplicación comercial de híbridos óptico/electrónicos, y mucho más si se habla de dispositivos puramente ópticos. Eso respecto al procesamiento óptico de datos. Pero en lo que respecta a la transmisión de datos, actualmente es de uso común la transmisión de datos por cables de fibra óptica, sobre todo en grandes cantidades y a grandes distancias. El uso de esta tecnología, sin embargo, se limita a tramos concretos, o a redes enteras en ocasiones, donde es rentable transformar la información electrónica en óptica, y luego generar la señal con la potencia necesaria para ser enviada.
Esto es posible gracias a unos dispositivos mucho más aparatosos en comparación con los electrónicos, que tras décadas de evolución pueden hacer tareas muy complejas en chips minúsculos. Además, la señal óptica, pese a ser mucho más rápida que la electrónica, necesita más energía para hacer el mismo trabajo.
Cuello de botella
Viendo los problemas que se encuentra la tecnología de computación óptica, uno podría pensar que tardaremos bastante en disponer de dispositivos cuyos componentes funcionen internamente a la velocidad de la luz. Esto sería una gran revolución en lo que respecta a la velocidad perceptible de nuestros ordenadores. El culpable de que que vaya a ser un cambio tan brusco es el llamado cuello de botella que supone hoy en día la comunicación entre los diferentes chips componentes de nuestros PC.
El problema es que aunque los procesadores y los discos duros, por ejemplo, sean muy rápidos, la información debe transmitirse entre ellos a través de canales electrónicos cuya velocidad es notablemente menor. El resultado es que tanto el procesador como el disco duro deben esperar hasta que la información es transmitida, perdiendo eficiencia en el proceso. El usuario sabe que el nuevo procesador es el doble de rápido, y que su disco también lo es, pero percibe que la mejora no es tan evidente.
Solución óptica
Si los canales fueran ópticos, el cuello de botella desaparecería, porque el canal de transmisión de datos sería más rápido que los componentes electrónicos. Entonces veríamos trabajar a los diferentes componentes electrónicos a pleno rendimiento, lo que también sería una pequeña revolución. Esta es la idea de los dispositivos híbridos ópticos/electrónicos.
Sin embargo, si todo el sistema fuera puramente óptico, tanto los chips como los buses de comunicación trabajarían a la velocidad de la luz. Eso supondría un cambio radical en la percepción del usuario, puesto que la cantidad de datos que se podría procesar en el mismo tiempo es varios órdenes de magnitud mayor. Las tareas usuales que en un sistema actual pueden llevar algunos segundos, como iniciar un programa que requiera bastante memoria, o iniciar el sistema, se ejecutarían de manera prácticamente instantánea.
Plasmónica, luz a través de metal
Ahora parece que viviremos esa revolución antes de lo que creíamos gracias a la tecnología plasmónica. Esta tecnología se basa en el uso de plasmones.
Los electrones se mueven más o menos libremente por la superficie de los metales, por eso son tan buenos conductores. Como tienen tanta libertad, se producen oscilaciones de estos electrones cuando hay algún tipo de influencia externa, como un campo eléctrico cercano, o incluso la luz de ciertas longitudes de onda. Los plasmones son una cuantización de esas oscilaciones de la densidad de electrones libres en un metal.
Más concretamente, la tecnología usa lo que se llaman plasmones de superficie, que son los que están en la superficie de contacto entre un metal y un material no conductor, para conseguir controlar el fenómeno llamado 'Transmisión óptica extraordinaria' (Extraordinary optical transmission ). La transmisión óptica extraordinaria (TOE) es una interacción entre la luz y la superficie del metal. Cuando se produce con los parámetros adecuados, los plasmones de superficie entran en resonancia y permiten que la luz que incide en el metal sea transmitida por su superficie.
La fibra óptica permite transmitir luz a través de finos tubos huecos con paredes reflectantes que impiden que la luz escape. La plasmónica permite transmitir luz a través de cables de metal.
En el mercado en 5 o 10 años
Pues bien. Un equipo de investigadores europeos ha probado esta tecnología basándose en lo que en la web del proyecto llaman componentes nanoplasmónicos basados en polímeros.
Con esta tecnología, y usando básicamente los mismos procesos industriales de impresión de pistas metálicas sobre placas de silicio, se pueden fabricar dispositivos tan compactos como los electrónicos, incluso microchips, pero que utilicen las pistas metálicas para transmitir luz en lugar de electricidad. La aplicación de esta tecnología es económicamente viable, y abre las puertas a una nueva era en el hardware de computación y de transmisión de datos.
Ya se han establecido contactos con representantes de varias firmas importantes de la industria del sector, como son NEC y Panasonic entre otros, y los creadores esperan ver chips que usen esta tecnología en el mercado en un período de entre 5 y 10 años.
El proyecto está financiado por la Unión Europea, y en él colaboran el Instituto de Ciencias Fotónicas de la Universitat Politècnica de Catalunya , además de varias instituciones francesas, alemanas y danesas. Ha tenido un coste final de unos 2 millones de euros y una duración de tres años.
BCN Binary, consultora tecnológica especializada en el ahorro de costes y aumento de la productividad de las pymes, analiza cuáles son las ventajas de esta nueva tendencia tecnológica que poco a poco va extendiéndose entre las empresas
Hace muy pocos años, la tecnología llamada “computación en nube” o “cloud computing” emergía incipientemente y era mirada con recelo por parte de las empresas. Hoy en día y más en los tiempos que corren, este tipo de tecnología comienza a ser aceptada entre las empresas debido al importante ahorro de costes que supone. Sin embargo, todavía existe un profundo desconocimiento y reparo a la hora de adoptar el “cloud computing” entre las compañías. Desde BCN Binary, consultora tecnológica especializada en el ahorro de costes y aumento de la productividad, se alerta del avance y mejora que supone para las empresas dar el “salto a la nube”.
De un modo sencillo puede definirse la “computación en nube” como la capacidad de ofrecer aplicaciones y servicios desde Internet hacia cualquier dispositivo, ya sea ordenador portátil, pda, teléfono, en lugar de hacerlo desde las aplicaciones instaladas de forma local. Así, una de las principales características de esta tecnología es que no es “tangible”, es decir, los servicios se ofrecen de una forma deslocalizada. Por eso, tal y como señala Francisco Rodríguez, Director General de BCN Binary “el cambio de las empresas al “cloud computing” es sobre todo un proceso de cambio de mentalidad. A muchas empresas les cuesta no disponer de un servicio in-situ porque de esta manera perciben más inmediatez en el servicio cuando es todo lo contrario. El servicio remoto permite acceder al instante a un servicio cualificado y eficaz”.
La principal ventaja que hay que tener en cuenta con respecto a ofrecer los servicios y aplicaciones mediante la “computación en nube” es la reducción de costes. Reducción tanto de instalación como del mantenimiento de las aplicaciones, así como ahorro de energía. Así, según un estudio publicado por un grupo de investigadores de las universidades Berkeley y Stanford, financiado por Microsoft e Intel, el costo de la electricidad (incluyendo refrigeración, alimentación de reserva y distribución de energía) representa un 50% del costo anual de la manutención de un Data Center. Asimismo, tal y como afirma Francisco Rodríguez “El ahorro es inmediato, ya que se reducen la necesidad de disponer de personal especializado y continuamente formado con los costes que conlleva. En el caso de aplicaciones el ahorro en tiempo de despliegue de aplicaciones, actualizaciones y mantenimiento se aprecia desde el primer instante”.
Pese a lo que pueda parecer, las capacidades a la hora de adoptar el “cloud computing” son las mismas o incluso mejores que al integrar los servicios de un modo tradicional. Como se está acostumbrado a lo material, existe la idea que lo “tangible” es lo que se puede controlar y lo que podemos ver siempre estará más seguro. Sin embargo, al integrar la “computación en nube” en una empresa puede accederse a todo desde cualquier lugar o dispositivo, siempre que se disponga de conexión a Internet. Además, los datos almacenados estarán más seguros y supervisados por un administrador central. Por último, este tipo de tecnología puede emplearse por todo tipo de empresas, desde pequeñas a PYMES y grandes empresas.
Acerca de BCN Binary
BCN Binary aporta soluciones tecnológicas a las PYMES, proporcionando servicios de alto valor como la consultoría, auditoría e implantación de plataformas de sistemas TIC. La experiencia en el sector le avala, así como el ser partner tecnológico de las principales empresas del mercado como HP, DELL y Microsoft. Fundada en 1996 en Barcelona, ha ido evolucionando y añadiendo numerosos servicios a su portafolio que van desde consultoría en sistemas de la información, integración de sistemas, soporte técnico y diseño de la infraestructura de red. La red de servicios TIC ofrecida por BCN Binary tiene como misión aportar valor de negocio a las empresas a través de las mejores soluciones tecnológicas según las necesidades.
De un modo sencillo puede definirse la “computación en nube” como la capacidad de ofrecer aplicaciones y servicios desde Internet hacia cualquier dispositivo, ya sea ordenador portátil, pda, teléfono, en lugar de hacerlo desde las aplicaciones instaladas de forma local. Así, una de las principales características de esta tecnología es que no es “tangible”, es decir, los servicios se ofrecen de una forma deslocalizada. Por eso, tal y como señala Francisco Rodríguez, Director General de BCN Binary “el cambio de las empresas al “cloud computing” es sobre todo un proceso de cambio de mentalidad. A muchas empresas les cuesta no disponer de un servicio in-situ porque de esta manera perciben más inmediatez en el servicio cuando es todo lo contrario. El servicio remoto permite acceder al instante a un servicio cualificado y eficaz”.
La principal ventaja que hay que tener en cuenta con respecto a ofrecer los servicios y aplicaciones mediante la “computación en nube” es la reducción de costes. Reducción tanto de instalación como del mantenimiento de las aplicaciones, así como ahorro de energía. Así, según un estudio publicado por un grupo de investigadores de las universidades Berkeley y Stanford, financiado por Microsoft e Intel, el costo de la electricidad (incluyendo refrigeración, alimentación de reserva y distribución de energía) representa un 50% del costo anual de la manutención de un Data Center. Asimismo, tal y como afirma Francisco Rodríguez “El ahorro es inmediato, ya que se reducen la necesidad de disponer de personal especializado y continuamente formado con los costes que conlleva. En el caso de aplicaciones el ahorro en tiempo de despliegue de aplicaciones, actualizaciones y mantenimiento se aprecia desde el primer instante”.
Pese a lo que pueda parecer, las capacidades a la hora de adoptar el “cloud computing” son las mismas o incluso mejores que al integrar los servicios de un modo tradicional. Como se está acostumbrado a lo material, existe la idea que lo “tangible” es lo que se puede controlar y lo que podemos ver siempre estará más seguro. Sin embargo, al integrar la “computación en nube” en una empresa puede accederse a todo desde cualquier lugar o dispositivo, siempre que se disponga de conexión a Internet. Además, los datos almacenados estarán más seguros y supervisados por un administrador central. Por último, este tipo de tecnología puede emplearse por todo tipo de empresas, desde pequeñas a PYMES y grandes empresas.
Acerca de BCN Binary
BCN Binary aporta soluciones tecnológicas a las PYMES, proporcionando servicios de alto valor como la consultoría, auditoría e implantación de plataformas de sistemas TIC. La experiencia en el sector le avala, así como el ser partner tecnológico de las principales empresas del mercado como HP, DELL y Microsoft. Fundada en 1996 en Barcelona, ha ido evolucionando y añadiendo numerosos servicios a su portafolio que van desde consultoría en sistemas de la información, integración de sistemas, soporte técnico y diseño de la infraestructura de red. La red de servicios TIC ofrecida por BCN Binary tiene como misión aportar valor de negocio a las empresas a través de las mejores soluciones tecnológicas según las necesidades.
Detalles del contacto:
Tech Sales Comunicación
Barcelona
Web: http://www.techsalesgroup.es
La Universidad de Berkeley impulsa un superordenador de uso gratuito y universal
La potencia de cálculo de Boinc multiplica por 10 la del ordenador más potente del mundo, aseguran sus responsables
Los actuales supercomputadores --grandes máquinas capaces de analizar ingentes sumas de datos en muy poco tiempo-- tienen una alternativa real en la computación distribuida, miles de pequeños ordenadores que gestiona un programa. La Universidad de Berkeley impulsa un proyecto en esta línea, destinado a lograr un superordenador de coste mínimo, de uso gratuito y universal. Lo financia el Gobierno de EEUU, a partir de la National Science Foundation, pero estará a disposición de empresas y universidades de todo el mundo gracias a un equipo de programadores que lo mantiene. Se llama Boinc y esta semana ha perfilado su puesta a punto en Barcelona.
Un proyecto semejante es lo que creó iniciativas como SETI@Home, destinado a buscar vida extraterrestre, y otras que analizan el cambio climático o ayudan a buscar medicamentos contra el sida, por ejemplo. Estos días la estrella es Einstein@Home, una iniciativa para demostrar la teoría de Albert Einstein de las ondas gravitacionales, y que suscita muchas esperanzas entre la comunidad científica.
"Habrá una infraestructura básica que tendrá la sede en Berkeley y voluntarios repartidos por todo el mundo coordinados por capítulos locales. Cada país se encargará de dar a conocer el proyecto a universidades y empresas", explica Jordi Portell, responsable de la parte catalana de Boinc. El esquema de este supercomputador de voluntarios alcanza 10 petaflops, diez veces más de lo que admite ahora el superordenador más potente del mundo, señala David Anderson, director del proyecto Boinc en la Universidad de Berkeley.
Proyectos fragmentables
Boinc no se presenta como competencia a los superordenadores tipo Mare Nostrum, por el tipo de proyectos a los que aspira. "Hay investigaciones que abordan volúmenes exagerados de datos y que no se pueden fragmentar. Estos sí requieren un superordenador. Pero hay otros que los datos se pueden organizar en paquetes y se pueden distribuir".
A la mejora de resultados en computación distribuida, más que la evolución de los resultados ha contribuido la evolución de las tarjetas gráficas en los ordenadores y en máquinas como la Playstation 3, utilizada en algunos proyectos.
"Las empresas son reacias a recurrir a Boinc, porque hay una paranoia respecto a los datos. Tienen miedo de que acaben en manos de terceros", explica Anderson. Los proyectos de investigación, en cambio, son más proclives. "También porque en EEUU hay más recursos en superordenadores y en Europa les gusta probar cosas nuevas", señala. Asia es todavía el lugar que más se les resiste, aunque próximas reuniones de Boinc las realizarán en Taiwán, Hong Kong y Vietnam para intentar atraer proyectos.
Reto en las máquinas
Cualquier persona con un ordenador puede contribuir a un proyecto de computación distribuida, señalan Portell y Anderson. Tan solo hay que descargar un programa, que luego irá recibiendo los archivos de datos y pasará los informes.
Los responsables de Boinc niegan que el proyecto esté dirigido solo a los muy tecnológicos o a programadores. "El 85% de nuestros usuarios usan Windows, el 7% Mac OS y otro 7% Linux", señalan. Y el reto es conseguir máquinas virtuales con el software que hagan que "todo el mundo sea igual", explica Anderson.
Cree que la actual tendencia hacia el cloud computing les puede beneficiar. "Si los usuarios descargan sus ordenadores de archivos, tienen más espacio para contribuir a proyectos de investigación", añade. "Y además es más barata para un proyecto grande de investigación".
No hay comentarios:
Publicar un comentario