martes, 17 de marzo de 2009

Abstracciones: interfaz hardware-software

La computadora es una herramienta eficaz para la resolución de problemas que al hombre se le escapan, ya sea por potencia de cómputo o por el tiempo que le tomaría obtener una solución aceptable. Para que un problema pueda resolverse computacionalmente es preciso expresarlo en términos comprensibles por la computadora. El desconocimiento de la arquitectura del procesador es, a menudo, una causa de pérdida de eficiencia o de semántica en los desarrollos. Las abstracciones y la metodología son, en este aspecto, herramientas de gran utilidad. Las nuevas arquitecturas multicore (de varios núcleos) están siendo un gran catalizador para el uso de metodologías y abstracciones avanzadas en el mundo de la computación de altas prestaciones (programación paralela).



1.- Las abstracciones y el avance de la tecnología

Las abstracciones acercan al esquema de acción y actuación del hombre aquellos problemas a priori irresolubles de manera directa. Siempre, en ciencia e ingeniería, se han usado abstracciones. Quizás el campo de la ingeniería que más se preste a ello sea el de la computación. Por todos es conocido que las computadoras existen para resolver problemas propuestos por el hombre. El modelo de procesamiento o cómputo de las mismas difiere en cierta medida del que nosotros usamos. Un ejemplo de esto se puede encontrar, en primera instancia, en el álgebra y el sistema de numeración de las computadoras, que difiere del nuestro. Una computadora emplea el álgebra de boole y el sistema de numeración posicional binario, aspectos que la limitan lo suficiente como para que cualquier problema que deseemos que resuelvan deba ser correctamente planteado.

Como ejemplo más claro de esta situación uno puede pensar en la suma. La suma es una operación aritmética que el hombre desde milenios aborda con un algoritmo muy sencillo en el que la herramienta más empleada es el acarreo (“me llevo uno”). Esta operación de “acarreo” impide que un procesador haga la operación de suma en paralelo; en su lugar ha de “emular” el comportamiento humano, sumando bit a bit los dos números involucrados en la operación, obtener el “acarreo” y abordar entonces la operación de suma de los dos bits siguientes.

Esta manera de operar que adopta el procesador le viene impuesta por el hombre. Para salvar la ineficiencia de la operación se ha de recurrir a numerosas y complejas abstracciones. Estas abstracciones resuelven en cierto modo el retraso de la suma. Para ello, se precisa incorporar estas abstracciones como circuitería extra (anticipadores de acarreo, puede consultarse un sencillo ejemplo de esto en [1]). Éste es el ejemplo de que las abstracciones median entre el hombre y el procesador.

El vertiginoso avance de las nuevas tecnologías, liderado por el punto de inflexión que estamos presenciando en la arquitectura de los procesadores, impide que el software avance con la misma velocidad que el hardware. Las abstracciones se presentan, entonces, como la única herramienta útil para salvar el espacio entre hardware y software sin perder eficiencia.



2.- El cambio de paradigma

El aumento en el rendimiento de los procesadores durante la última década ha avanzado, aparentemente, de manera indefinida. El límite de este aumento en el rendimiento viene impuesto por las leyes de la física. Hasta ahora, las betas de rendimiento más aprovechadas eran la escala de integración (incrementar el número de puertas por unidad de superficie), aumentar la frecuencia del reloj y el consabido ILP (o paralelismo de instrucciones). Al principio del año 2003 este crecimiento al que nos tenía acostumbrado la industria alcanzó el límite impuesto por la física (consumo y disipación del calor), lo que impide que se siga incrementando la frecuencia del reloj. Si no se puede seguir incrementando la velocidad de reloj, se pretendió que la responsabilidad recayera sobre el ILP que comenzó a evolucionar para aplicar técnicas muy complejas de paralelismo (predicción de salto, ejecución especulativa, etc.) que requería superficies prohibitivas dentro del chip.

Hoy por hoy, la única beta por explotar para alcanzar los incrementos de rendimiento a los que el software está acostumbrado es el número de puertas por unidad de superficie. De acuerdo a las expectativas, el nivel de integración se duplicará cada año. Tan ingente cantidad de puertas invita a crear más núcleos dentro del mismo procesador, esperando que en 2012 se sobrepasen los 32 núcleos. El inconveniente es que sólo se apreciará el impacto de esta técnica en el software (rendimiento) si el software es capaz de escalar a través de todos estos núcleos.

El giro adoptado por el hardware ha generado un problema de adaptación entre el software y el hardware, susceptible de ser resuelto haciendo uso de las abstracciones.

Con la aparición de las CPU multi núcleo (multicore) y del inicio de la computación en arquitecturas de muchos núcleos (manycore) se puede considerar que un chip individual, ahora, es un sistema paralelo per-se. Es más, con esta tecnología y salvadas las limitaciones de las que acabamos de hablar, el paralelismo de estas nuevas arquitecturas escala de acuerdo a las leyes de Moore [2]. El verdadero reto se ha trasladado al desarrollo de aplicaciones que escalen, de manera transparente, a la par que se añaden nuevos núcleos a la arquitectura. La evolución de las arquitecturas paralelas (hardware en el que se apoya la computación de altas prestaciones) sigue acuñando a los sistemas con más de un núcleo como arquitecturas que sustituirán a las arquitecturas paralelas convencionales (clusters). Hay mucho software desarrollado para las arquitecturas que hasta hoy son las arquitecturas paralelas por excelencia (clusters) pero la aparición de los multicore hará necesario que se porten todas las aplicaciones y que se adopten nuevas estrategias de desarrollo (metodología de software apropiadas -segundo puntal de la computación de altas prestaciones-), que permita disfrutar del escalado trasparente y de las consecuencias directas en el rendimiento.



3.- Las abstracciones

El lugar donde aparecen las abstracciones es en los lenguajes de programación de alto nivel. Cuanto más alto nivel proporcione este lenguaje, más expresividad y posibilidad de usarlas tenemos. Nótese que la posibilidad de expresar la solución a un problema en términos computacionales siempre ha estado lastrada por culpa de la diferencia de expresividad entre el hombre y el procesador. Que un lenguaje sea expresivo ayuda a la resolución del problema pues el hombre podrá expresarlo mejor y la computadora podrá entenderlo mejor. La carga de la traducción recae en el compilador del lenguaje.

Obviando posibles fuentes de pérdida de rendimiento a la hora de elegir el conjunto de instrucciones, del procesador óptimo para pasar del lenguaje de alto nivel al lenguaje de la máquina, esta posibilidad es útil porque amplía el rango de usuarios de la computación a todo aquel que tenga un problema susceptible de ser resuelto por la computadora, sin necesidad de que éste tenga que conocer los detalles íntimos del procesador en el que se abordará la resolución. La expresividad, cuanta más alta sea, más fiel será la traducción. Las abstracciones son una herramienta muy importante en este punto.

Mejorar, cambiar y retocar fotografías, al alcance de todos

Lejos quedan ya los tiempos en los que el tratamiento digital de las imágenes estaba sólo al alcance de los profesionales. La popularización de las cámaras digitales ha llevado de la mano al software de retoque fotográfico que no se limita ya a las soluciones profesionales de alto nivel, sino que ha abierto un abanico de programas que permiten a cualquier usuario jugar con sus recuerdos.

Las supermodelos ya no son lo que eran. Sí, es cierto que siguen copando portadas espectacularmente bellas, pero ya nadie las cree tan inalcanzables. El maquillaje, una buena luz, estilistas, todo eso contribuye a que el resultado sea de lo más atractivo, pero en el mundo en el que vivimos, donde la imagen lo puede todo, el retoque fotográfico se ha convertido en el rey.

Cualquiera de nosotros, simples mortales de a pie, podemos equipararnos con ellas, sólo hace falta un buen software de retoque fotográfico y mucha maña, eso sí, para conseguir ser más delgados, tener una piel radiante, una nariz chata, un pelo brillante o unos labios carnosos. Por su puesto, el color de ojos será al gusto del consumidor, así como la talla de busto en el caso de ellas y el volumen torácico en el caso de ellos.

Y todo eso, simplemente trabajando con un buen software, que en los últimos tiempos han evolucionado tanto en función de la demanda de todo tipo de usuarios, no sólo profesionales, que los resultados que logran no dejan indiferentes a nadie. Eso sí, aunque no entraremos a analizar las cuestiones éticas sobre los resultados de este tipo de intervenciones, sí le advertimos que la próxima vez que sueñe con el azul del agua del Caribe o el verde de las montañas, piense que a lo mejor la realidad no tiene unos colores tan intensos, pero seguro que no le defraudará.

Eric-Chulot Lapres, responsable de Roxio para España, repasa la historia de estos programas: “anteriormente sólo existían dos extremos dentro del abanico del software de retoque fotográfico, por una lado, soluciones sencillas con posibilidades muy limitadas a las que normalmente tenía acceso el usuario final. Y por otro, soluciones profesionales muy avanzadas, con un gran número de funcionalidades y de gran coste que requerían equipos muy potentes y un usuario experto para su manejo”.

Sin embargo, ahora, con el incremento en las capacidades de los ordenadores personales y el mayor nivel tecnológico del usuario medio, se ha abierto un campo para las soluciones completas, adaptadas a un amplio público pero que también incluyen un potente abanico de herramientas de edición. Así las cosas, considera que, ante la proliferación de herramientas fotográficas, teléfonos móviles, MP3 con cámaras integradas, cámara profesionales, para usuario medio o para principiantes, “se hace imprescindible contar con una solución eficaz para la gestión de todo el material fotográfico que acumulamos en nuestros ordenadores”.

Por ello, el responsable de Roxio para España considera que la adaptación de las fotografías a los múltiples soportes, así como la conversión de formatos digitales de imagen son “los principales retos a asumir por los fabricantes de herramientas de retoque fotográfico”.







No sólo de PhotoShop vive el retoque

Al pensar en retoque fotográfico, a la mayoría de nosotros se nos viene un nombre a la cabeza, PhotoShop. Y si bien es cierto que el producto de Adobe es el más popular, también hay otras soluciones en el mercado que ofrecen muy buenos resultados. De hecho, tal y como explica Matías Guerra, responsable de marketing para Mercados Creativos de Adobe PhotoShop , “desde los tiempos del primer Photoshop hasta hoy, muchas han sido las mejoras en este tipo de software, muchos han sido los programas que han aparecido y desaparecido”.

Lo cierto es que, hoy en día, casi todo es posible con estos programas: restauración de imágenes antiguas, fotomontajes imposibles, eliminación o incorporación de elementos en la imagen, retoques del color, encuadre o corrección de los molestos ojos rojos. Poco a poco, las técnicas de retoque han ido evolucionando, adaptándose a los nuevos tiempos, permitiéndonos así hacer verdaderas creaciones artísticas. Los distintos sectores de la fotografía se han volcado con estos programas que hacen la vida más fácil a los fotógrafos y convierten las fotografías de familia en recuerdos más bonitos y lúcidos. Estas técnicas de retoque fotográfico digital son hoy en día muy utilizadas como método de post-producción, sobre todo en ámbitos donde la imagen es lo que vende. Así se expresa Verónica Olocco, directora de la división Windows Vista Client de Microsoft Ibérica, quien considera que el software de retoque fotográfico es hoy algo habitual en nuestras vidas y “está presente en casi todas las imágenes que vemos en revistas, carteles, etc. Incluso en las que nosotros mismos tomamos”.

Pero ha sido la fotografía digital la que realmente ha propiciado el boom de la imagen en nuestra vida. Se ha impuesto a la fotografía analógica debido, entre otras cosas, a que reduce el gasto económico al no tener que revelarse para ver las imágenes, ofrece una mayor duración y la posibilidad de imprimir tan sólo las fotos que realmente nos interesan. Cada vez son más los accesorios y productos que nos ayudan a perfeccionar la captura de la imagen y a retocarla posteriormente para lograr alcanzar casi la imagen “perfecta”. Por todo ello, “los programas informáticos para retoques fotográficos seguirán siendo necesarios en un mundo dominado por la imagen y por la búsqueda de la perfección de la misma. Estos programas se irán perfeccionando, permitiéndonos hacer verdaderas maravillas con nuestras fotografías hasta puntos inimaginables”, vaticina Verónica Olocco.

Desde Microsoft, atentos a todos los movimientos que se producen en el mundo de la tecnología, ofrecen en Windows Vista una herramienta para guardar, retocar y compartir nuestras fotografías digitales. “Aparte, nos ofrece la posibilidad de conservar el “negativo original” por lo que después de ser retocada, editada y guardada se puede volver a su formato original. Podemos a la vez que se van transfiriendo las imágenes, organizándolas y etiquetándolas. Nos permite compartir las fotos con amigos y familiares ajustando el tamaño de las imágenes de forma automática y enviarlas por correo”. Por su parte, los usuarios de http://www.idg.es/pcworldtech/mostrararticulo.asp?id=193758&seccion=">Microsoft Windows Live cuentan con La Galería Fotográfica, “un visor y editor de imágenes y vídeos que completan y mejoran la experiencia de Windows. Se puede descargar de forma gratuita desde la Red”. Para completar su oferta, el abanico se cierra con el servicio Photosynth, que permite transformar de forma automática y rápida las fotos digitales en espacios 3D y compartirlas con otros usuarios a través de la red. Otra aportación al mundo de la fotografía ha sido el lanzamiento AutoCollage 2008, una aplicación de escritorio que permite recopilar un conjunto de fotografías individuales en un solo “collage”.

La gestión de Miracle se cuece en los hornos de CCS Agresso

Más de 120 años de historia empresarial son los que tiene a sus espaldas la firma de restauración y catering Miracle. Durante más de 30 años ha hecho uso de la tecnología que le facilitaba CCS Agresso, pero la llegada de nuevas versiones de estas soluciones les hizo actualizar sus sistemas. Un proceso que ha servido para mejorar el modo de trabajo de la compañía y optimizar recursos.

Miracle es una empresa familiar centenaria, cuyos orígenes como establecimiento se remontan a 1855, en la ciudad de Mataró. En este más de un siglo de andadura, lo que comenzó como un negocio pequeño en un pueblo de Barcelona se ha convertido en una empresa reconocida en toda Cataluña. Y es que, dentro del sector de la alta gastronomía, el de Miracle es un nombre con solera, gracias a la elaboración de productos artesanos de cocina y pastelería.

Actualmente, la estructura empresarial de la compañía está compuesta por dos tiendas propias en el centro histórico de Mataró, tres locales en Cabrera de Mar para la realización de banquetes y un servicio de catering para realizar cualquier tipo de evento. Además, cuenta con un equipo humano de 35 empleados con los que “satisfacemos cualquier exigencia”, explica Xavier Rimblas, gerente comercial de Miracle.

Pero en el negocio de la restauración hace falta algo más que buenos productos y buen hacer en la cocina para triunfar. Es necesario combinar la experiencia y una larga trayectoria con las nuevas tecnologías para seguir adelante. Y es que, cuando una empresa toma unas dimensiones como las de Miracle, es imprescindible, para mantenerse y también para continuar compitiendo, hacer uso de la tecnología.

Por ello, conscientes de esta necesidad, los responsables de esta firma decidieron emprender un cambio en su estructura tecnológica, y más concretamente, en lo que a la gestión se refiere.



Larga trayectoria tecnológica

Durante más de tres décadas, Miracle ha estado trabajando con las soluciones de CCS Agresso y hasta ahora trabajaban con un programa de contabilidad llamado TOP Gestión, que, sin embargo, no cubría todas sus nuevas necesidades, puesto que se encontraban con problemas tales como la dificultad en el análisis de la empresa y de integración de las diferentes áreas de la misma. A pesar de ello, “conocer los beneficios asociados a sus servicios, nos impulsó a seguir avanzando con CCS Agresso en la inversión de estas nuevas soluciones en nuestra infraestructura tecnológica para mejorar la rentabilidad de la empresa”, detalla Jaume Rimblas, gerente de Miracle.

Así resume el gerente de Miracle el porqué de este proceso y en qué ha consistido: “Llevamos confiando en las http://www.idg.es/pcworldtech/mostrarnoticia.asp?id=48558&seccion=infraestructura ">soluciones de CCS Agresso más de 30 años y hemos vuelto a confiar nuevamente para migrar a ekon en las áreas de logística y finanzas. Ekon nos dotará de una herramienta con una total integración entre nuestros departamentos. Además, destaca por ser fácilmente accesible, detallada, fiable y se actualizará en tiempo real. De esta forma, nos centramos en dar mayor servicio y prestación a nuestros clientes ofreciéndoles nuestros mejores servicios”, concreta este responsable.







Mejoras en la gestión y análisis

Así las cosas, finalmente decidieron dar el cambio de sistema y pasar a ekon. Con ello consiguieron una mejora global de la gestión y el análisis, pero también dar respuesta al constante crecimiento de la empresa y a la necesidad de reducir el tiempo de gestión de la información, los procesos de introducción de datos manualmente y la optimización de los recursos. “Este conjunto de motivos nos ha llevado a migrar a la solución ekon, ya que es un sistema ágil y abierto que nos permitía evolucionar en todas las direcciones”.

Por ello, gracias a la implantación de los módulos de logística y finanzas de ekon, Miracle podrá contar con datos en tiempo real que le permitirán agilizar la toma de decisiones y optimizar recursos. “Ésta es nuestra meta, ya que al tener una información completamente al día con las herramientas que nos proporciona CCS Agresso podremos conocer todos los temas de costos, financieros, presupuestos y ventas con la mayor exactitud y rapidez posible”.

Para abordar esta actualización de los sistemas, en Miracle debieron migrar los datos de la aplicación que utilizaban anteriormente, TOP, a la nueva, ekon, en las áreas de logística y finanzas. El proceso, tal y como detalla Xavier Rimblas, “empezó con una explicación de las posibilidades que podía ofrecernos el nuevo programa. Más tarde se hizo un esqueleto de la parte logística del programa adaptado a la empresa. Una vez definido, se hizo el mismo proceso con la parte financiera”.

Así, una vez realizado el esqueleto del proceso, se procedió a la migración de los datos, aunque antes se aprovechó el momento para abordar una depuración de los mismos introducidos en TOP.

Una vez implantado el programa, CCS Agresso impartió unas clases prácticas sobre la parte de logística en grupo, pues esta actualización tecnológica ha beneficiado directamente a cinco empleados y, de forma indirecta, al resto de la plantilla. Tras esta fase, se emprendió un seguimiento individual al personal de la compañía en sus instalaciones. Acabada esta fase, se hizo lo propio con la parte de finanzas.

Así las cosas, actualmente se encuentran en una fase de resolución tanto de incidencias que han ido apareciendo como de dudas de los usuarios a medida que se va avanzando en el conocimiento del programa.

Aunque aún en fase de consolidación, los responsables de la compañía ya hacen una primera valoración sobre las mejoras que ha experimentado su negocio tras esta inversión, entre las que destaca el uso que se hace de gestión de finanzas y logística, aunque también matiza que “es todavía muy pronto para poder analizar las mejoras experimentadas”.

Sin embargo, después de implantar las soluciones de CCS Agresso esperan lograr una mejora de la gestión y una mayor agilidad en la toma de decisiones. Aún así, Rimblas ya apunta un cambio en su modo de trabajo con esta implantación, pues han logrado “una mayor agilidad en la introducción de datos, haciendo más práctico y útil el programa”. Asimismo, este responsable destaca el fácil manejo del nuevo programa, “dado que es muy intuitivo y visual”.

Eso sí, también señala un momento crítico en este proyecto, concretamente, en la fase de migración de datos, puesto que fue necesario realizar una depuración previa de los datos introducidos en TOP y que, desde su punto de vista, “ha sido un poco lenta y costosa para que se pudiesen migrar a ekon”.

Cuando el virus llega al móvil

"Prácticamente a nadie se le ocurriría tener un ordenador sin antivirus, especialmente si utilizamos esta máquina para conectarnos a Internet pero, ¿cuántos de nosotros tenemos una aplicación de seguridad en nuestro teléfono móvil, smartphone (teléfono inteligente) PDA? Seguramente, muy pocos (por no decir ninguno). Aunque pocos y escasamente efectivos o virulentos, ya se conocen casos de virus para este tipo de terminales. ¿Estamos ante la antesala de una nueva forma de romper nuestra seguridad? ¿O, como aseguran algunos, los virus para móviles son sólo una estrategia de marketing de las empresas de seguridad?



Seguridad. Ésa parece ser la palabra clave en los últimos tiempos en el sector de las Tecnologías de la Información. No hay empresa (ni usuario) que se precie al que no le preocupe la posibilidad de perder sus datos, por cualquiera de las múltiples vías posible para ello. De hecho, hay estudios que ya constatan que muchas empresas han aflojado su ritmo de innovación para aumentar la partida destinada a la seguridad.

Pero, pese a todo este clima de preocupación, lo cierto es que los dispositivos móviles, especialmente teléfonos y/o smartphones, siguen siendo un oasis en la infraestructura tecnológica. Nadie se atrevería a conectarse a Internet desde un ordenador si éste no tuviera un antivirus instalado (y actualizado) y, sin embargo, pocos usuarios han dotado a su teléfono móvil de algún tipo de aplicación o sistema de seguridad a su teléfono móvil, incluso aunque lo empleen para acceder también a la Red de las redes.





Mayor inteligencia para todo

Los teléfonos móviles se han convertido en smartphones (teléfonos inteligentes) y, cuanto más “inteligentes” son, mayores son los riesgos de seguridad. Por eso, algunos analistas consideran que la conveniencia de utilizarlos debería ser sopesada con el cada vez mayor riesgo de problemas de seguridad.

No hay que olvidar que las nuevas tendencias en la industria inalámbrica están conllevando que sea más sencillo para los atacantes cometer sus fechorías, según denuncia John Girard, vicepresidente de Gartner. Este experto relata que hace sólo unos años, no había ningún tipo de estandarización entre los dispositivos sin cables: diferentes sistemas operativos, diferentes implementaciones de Java e incluso varias configuraciones entre dispositivos con el mismo sistema operativo hacían muy complicado y difícil escribir un código maligno que fuera capaz de ser efectivo en diversos terminales.

Sin embargo, las cosas han cambio. Y en la medida en que cada vez son más comunes y populares plataformas como Windows Mobile o Symbian, esta estandarización hace que sea más sencillo para los atacantes poder desarrollar un programa maligno que pueda ejecutarse en varios dispositivos. “En la medida en que tu teléfono móvil se parece más a un PC, más probabilidades hay de que albergue un código maligno”, señala Girard, quien además constata que los usuarios “están acostumbrados a mandar código ejecutable”.

Muchos de los ataques que han sido plagas en las máquinas de sobremesa, como el phishing, cada vez serán más frecuentes en plataformas móviles. Además, los usuarios suelen ser más tolerantes con los fallos del sistema cuando se producen en sus móviles, pese a que estos errores suelen ser sintomáticos de haber sido atacados o infectados.

Esta situación se puede volver especialmente problemática cuando las empresas empiecen a instalar aplicaciones empresariales en los teléfonos móviles y, por tanto, sean capaces de almacenar datos de vital importancia para el negocio y muy atractivos para los atacantes, alerta el analista de Gartner. “No hay que perder de vista que nos estamos acercando muy rápidamente al momento en el que la gente va a poder hacer, de verdad, negocio con sus teléfonos móviles inteligentes”, sentencia.

Según Gartner, el robo de identidades inalámbricas y los intentos de phishing en dispositivos inalámbricos será cada vez más frecuente, sobre todo a partir del próximo año. Por eso, las empresas deben asegurarse, antes de comprar todo una flota de dispositivos móviles, que dichos equipos cumplen con unas mínimas especificaciones de seguridad. Éstas pueden ser establecidas mediante la configuración de qué tipo de datos pueden ser gestionados por el dispositivo.

Si el hardware y el software son seguros cuando el equipo llegue a la empresa, será más sencillo de gestionar que si se intenta prepararlo o arreglarlo después de que ya forme parte de la infraestructura, según Girard.

Por eso, este analista desgrana algunos puntos clave en cuanto a la seguridad inalámbrica. Así, recomienda que la información en los dispositivos esté encriptada, que se instalen controles de identidad y acceso efectivos y emplear sistemas de prevención de intrusiones para asegurar que los dispositivos no autorizados accedan a información sensible.



La amenaza de los virus

Al igual que este analista de Gartner, la mayoría de los expertos de seguridad coinciden en señalar que, aunque poco efectivos (por ahora) los virus para teléfonos móviles sí pueden considerarse como una amenaza real y, sobre todo, futura. Las cifras sobre el número de programas malignos o de usuarios que han padecido sus efectos son diversas. Así, algunas fuentes cifran en 14 de cada 100 los usuarios que ya han experimentado algún tipo de efecto secundario provocado por virus en sus dispositivos móviles.

Sobre el número de virus, algunos apuntan a que existen varias docenas de variantes de virus importantes, aunque en lo que coinciden prácticamente la mayoría es en que este número está aumentando a pasos agigantados. Evidentemente, aún son muy pocos en comparación con las amenazas a las que tenemos que enfrentarnos en un entorno de escritorio. Como muestra, cabe aportar el dato que facilita Symantec, según el cual por cada virus para smartphone existen 450 virus para PC. Este dato pertenece al informe ISTR de la compañía, acerca de las tendencias detectadas en cada semestre, y según el cual, aunque la proporción es aún muy desigual, cada año se recorta más.

De hecho, los expertos aseguran que el número de virus para móviles va aumentando cada mes, aunque también hay quien apunta, como Luis Corrons, director técnico de PandaLabs, que “después de un proceso de crecimiento, se puede decir que en el último año no ha aparecido algo realmente nuevo. La realidad es que, a día de hoy, esto no significa un gran riesgo, o un riesgo masivo, para la seguridad para usuarios, aunque podría serlo en el futuro”.

La mayoría de estas amenazas pueden considerarse troyanos que vienen camuflados como aplicaciones legítimas y se activan cuando el usuario las ejecuta, aunque también hay algunos virus que vienen empaquetados como MMS (mensajes multimedia). En general, el tipo de malware más dañino para un móvil hoy en día sería algún tipo de troyano diseñado para robar claves de todo tipo. Pensemos que en muchos países los móviles ya son usados frecuentemente para acceder al correo o hacer pagos a través de plataformas como PayPal. No en vano, y según pone de manifiesto una encuesta realizada a usuarios de smartphones en EE.UU. por Applied Research, un 34 por ciento de los usuarios acceden a sus cuentas bancarias mediante un dispositivo móvil, mientras que 54 de cada 100 acceden a sitios Web que requieren contraseña con este mismo tipo de aparatos. El robo de estas claves puede suponer al usuario la pérdida de dinero, el uso de su cuenta de correo para enviar o recibir spam (o ambas). También existen códigos maliciosos para móviles capaces de bloquearlos e impedir o dificultar su recuperación, de modo que el terminal queda casi inservible.

Algunos ejemplos famosos o mediáticos de virus para móviles son Cabir y Combar. Los primeros se caracterizan por escanear constantemente en busca de dispositivos Bluetooth para propagarse lo que, además, supone la rápida descarga de la batería de los móviles infectados. Los segundos actúan como una especia de dialers, de modo que los SMS enviados se vuelven más caros; además, muchas variantes inutilizan los dispositivos móviles infectados.

Pero también se conocen casos como el de un virus que afectó a varios usuarios chinos que recibieron en su terminal de teléfono un mensaje en el que se les conminaba a transferir cierta cantidad de dinero a un número de cuenta bancaria, ya que si no todo el contenido de su móvil sería borrado. Como medio de coacción, varios SMS eran borrados tras abrir el mensaje. Se trataba de una infección con el troyano Kiazha.A.

Teléfonos con pantalla táctil

¿Quién quiere botones pudiendo tener una gran pantalla táctil en un teléfono móvil? El iPhone fue, qué duda cabe, el punto de inflexión en toda una nueva hornada de teléfonos móviles, pese a que no fue el primero en tener una pantalla táctil. Tras él, llegaron muchos modelos, con sus pros y contras, tal y como les contamos a continuación.



Las ventajas de la pantalla táctil son numerosas, partiendo del hecho de que nos permite ahorrarnos la tradicional botonera y ganar este espacio para tener una pantalla mayor en la que poder ver las cosas de una manera más clara, sencilla y amigable. Muchas veces es más intuitivo tocar un punto para acceder a una aplicación que estar tocando botones cuyo tamaño reducido, además, nos puede llevar a equívocos.

Pero tener una pantalla táctil también tiene sus inconvenientes, sobre todo para aquellos que les gusta mantenerla limpia, fuera de huellas dactilares… y de ralladuras.

Sea como fuere, lo cierto es que se impone la tendencia de la pantalla táctil en los teléfonos móviles y, quienes la prueban, no suelen acostumbrarse a volver a la tradicional botonera, ni siquiera para escribir mensajes (a excepción hecha de las Blackberry para el envío de mensajes de correo electrónico).







Después del iPhone

No fue el primer teléfono móvil en tener una pantalla táctil, pero sí que consiguió ser el punto de partida de toda una nueva generación de terminales. Es el espejo en el que todos se miran.

Después del revuelo que ha causado el aterrizaje de la última joya de Apple, hemos querido analizar en detalle las principales ventajas tanto del iPhone 3G como de otros modelos.

Desde que el pasado 11 de julio comenzara a distribuirse el nuevo iPhone 3G en nuestro país se ha escrito mucho acerca de su diseño, sus funcionalidades y sencillez de uso. Sin embargo, el último dispositivo lanzado por la factoría de la manzana no es el único que pretende satisfacer las necesidades de los usuarios más exclusivos. Samsung, Gsmart, RIM o Palm son sólo algunos de los fabricantes que tienen al menos un modelo táctil en el mercado.

Es cierto que en el transcurso del Mobile World Congress de Barcelona se han anunciado multitud de nuevos teléfonos móviles, muchos de ellos con pantalla táctil. Pero aún pasarán algunos meses hasta que podamos ver algunos de ellos. Mientras, les ofrecemos un análisis de 6 teléfonos móviles con una característica común: la pantalla táctil.

WiFi y WiMax: mejorando lo presente

Nadie puede negar quelas redes Wifi resultan muy prácticas. Como a pocos se les escapa que por alcance y rendimiento no resultan la solucion para satisfacer las necesidades actuales de conectividad: servicios de banda ancha y movilidad. WiMax toma el relevo en las redes sin hilos para superar estas limitaciones.

La evolución de la demanda de conectividad puede resumirse a modo de lema olímpico: más lejos, más rápido, más seguro. Una sociedad cada vez más tecnificada en lo más cotidiano con la movilidad como base de cualquier actividad provoca el desarrollo acelerado de la tecnología necesaria para satisfacer esas necesidades. Usuarios generando una demanda que absorbe rápidamente cualquier avance, operadores de comunicaciones e integradores que ven en toda novedad una oportunidad de negocio y fabricantes obligados a responder a estas expectativas a marchas forzadas, conforma un escenario en la que todos los actores parecen ir siempre un paso por delante en el guión.

Desde hace bastante tiempo, las redes inalámbricas WiFi han sido la piedra angular sobre la que se ha sustentado el entramado de las comunicaciones para dispositivos portátiles y como medio barato de acercar el ordenador a donde el cable no llega. Los usuarios pueden estar en cualquier sitio y, junto a ellos, quieren que esté su ordenador. Sin duda, en este marco, las redes sin hilos han ganado en facilidad, confiabilidad y prestaciones, pero siempre dentro de unas limitaciones que ya están ampliamente superadas y, más que representar una solución de conectividad, hoy por hoy suponen una frustración para conseguir todas las capacidades disponibles en el ordenador, tanto para usuarios domésticos y corporativos. Y si en el ámbito urbano mejor dotado en infraestructuras de comunicación no todo el mundo tiene las mismas oportunidades de cobertura y acceso, en el ámbito rural las carencias pueden llegar a ser descorazonadoras para cualquiera que tenga un mínimo de interés de participar en su tiempo de la Sociedad de la Información. Las soluciones, que haberlas hay, cuando no son inviables en lo económico, son complicadas técnicamente hablando. Éstas son las circunstancias que han obligado a replantear la conectividad WiFi y han establecido el marco sobre el que definir las características evolutivas. El resultado es WiMax (World Wide Interoperatibility for Microwave Access).

Bajo el nombre comercial de WiMax se cobijan un grupo de tecnologías de conexión inalámbricas que surgieron desde las especificaciones de WirelessMAN (Wireless Metropolitan Area Network, Redes Inalámbricas de Área Metropolitana), que se apoya en un consorcio de fabricantes, unidos para promocionar esta tecnología y asegurar la compatibilidad de los distintos desarrollos que se lanzan al mercado: Foro WiMax. Del esfuerzo de esta agrupación de fabricantes surgen las especificaciones estandarizadas 802.16 que, desde el año 2001, han ido evolucionando para dar lugar a distintas revisiones con las que mejorar las prestaciones y adaptabilidad de este modo de conexión sin hilos, para conseguir cubrir distancias de hasta 50 kilómetros con caudales de 75 Mbps.Los sistemas WiMax actuales se basan en dos normas que refunden todas las especificaciones que se han ido desarrollando para esta tecnología, en lo que se ha dado en llamar Broadband Wireless Acces (BWA, Acceso Inalámbrico de Banda Ancha). Por una parte se encuentra el estándar IEEE 802.16-2004, orientado a definir las comunicaciones entre emisor y receptor conectados con visión directa entre ellos, similar a la conectividad por infrarrojos. La segunda, la norma HiperMAN de ETSI (European Telecommunications Standard Institute), que define la utilización de frecuencias entre los dos extremos de la conexión sin que exista visión directa entre ellos, como ocurre en Bleutooth, y con capacidad para sortear obstáculos que pudiera existir en el recorrido de la señal.



Esquema de conexión

Así, en líneas generales, el esquema simple de despliegue de WiMax consta de dos elementos básicos que conforman los puntos de la conexión. En un extremo se encuentra la Torre o Estación Base, elemento que se identifica normalmente con un operador de comunicaciones, en donde se ubican una o varias antenas con las que se retransmite la señal. Este elemento puede ser una torre como tal en donde se anclan las antenas o puede tratarse de una pequeña edificación en algún lugar elevado, como otro edificio o un altozano. Las antenas que se ubican en este extremo pueden ser omnidireccionales (cuando los usuarios a los que se da servicio están localizados en todas las direcciones, lo más habitual), sectoriales (cuando sólo se trata de cubrir sectores específicos del territorio de cobertura, normalmente en 60, 90 y 120 grados), o antenas de panel (se utilizan para conexiones punto a punto, cuando se quiere cubrir una gran distancia y se necesita una tasa de transferencia alta.) En una Torre o Estación Base pueden coincidir distintos tipos de antenas, con las que atender distintas necesidades y oferta de servicio para abonados. Un mismo enlace radiado de WiMax tiene capacidad para proporcionar varios canales por conexión física y atender a múltiples suscriptores, cada uno de ellos tratados privadamente, con protocolos y nivel de servicio diferenciados para cada uno de ellos, según lo que puedan contratar individualmente.

En el otro extremo de la conexión, en el usuario final, que puede ser residencial o corporativo, se encuentra instalado el CPE (Customer Premises Equipament, Equipo Local de Cliente), que constituye el último eslabón de este tipo de redes y en donde acaba el flujo de transferencia de datos entre operador y el cliente final. Por las características de la señal transmitida en WiMax, el CPE no resulta aparatoso. Se trata de un pequeño dispositivo, como una mínima caja en la que asoma una antena, cuando la señal se pretende distribuir en una red LAN o se da servicio a varios puestos. Se instala en el exterior o interior del edificio y se conecta al punto de distribución. Por su tamaño y aspecto, en cualquier caso, resulta un elemento poco llamativo para el observador. Pero puede ser perfectamente una tarjeta PCMCIA, PCI o módulo USB que se inserte llanamente en el ordenador, cuando se trata de conexiones directas de equipos individuales. Es posible, incluso, encontrar portátiles que lo llevan integrado en su circuitería.

La conexión entre estos extremos, Torre Base y CPE, se puede producir de dos modos. Cuando se plantea un enlace LOS (Line of Sight), se trata de un enlace con visión directa entre ellos. Es decir, entre la Torre Base y los CPE de usuario no hay ningún obstáculo que se interponga en el intercambio de señal: existe visibilidad y una comunicación directa. Éste es el mejor de los casos y la comunicación se produce en las frecuencias altas, entre 12 y 66 GHz, consiguiendo un radio de cobertura extremadamente alto y las conexiones pueden alcanzar las mayores tasas de transmisión de estas especificaciones. Por el contrario, cuando los enlaces son del tipo NLOS (No Line of Sight, sin visión directa), la comunicación se produce sin contacto visual directo entre los extremos. La señal debe sortear obstáculos orográficos o constructivos y para evitar los problemas de interferencia que estos pueden introducir en la señal, se opera en las frecuencias más bajas, entre 2 y 11 GHz, lo que provoca que las velocidades de operación de los enlaces sea menor y la cobertura tenga una extensión mucho más reducida, situándose su alcance en una extensión similar a la que cubren las células de telefonía móvil. El primer tipo es frecuente que se produzca en entornos rurales, mientras que la segunda es propia de usuarios urbanitas, por razones obvias. No obstante, el peor de los escenarios posibles de WiMax, NLOS, es abrumadoramente superior en rendimiento y alcance que la más cuidada de las implementaciones WiFi.

Para la transmisión de señal entre los extremos, se utiliza la modulación OFDM (Orthogonal Frecuency División Multiplexing), con 256 portadoras y OFDMA (Orthogonal Frecuency División Multiple Access), con 2.048 portadoras. Técnicas de transmisión suficientemente probadas en otros ámbitos, como es WiFi y televisión digital, por cable o desde satélite, que permite altas tasas de transferencia incluso cuando las condiciones metereológicas no resulten favorables. Una modulación que es apropiada para las transmisiones de flujo sostenido como para aquellas otras que se producen a ráfagas, lo que este tipo de conexión está capacitado para llevar datos de cualquier tipo de servicio en IP: voz, datos y también vídeo. Para establecer el mejor enlace posible, el estándar define mecanismos de modulación adaptativa, que permite que la estación base y los equipos receptores de usuario negocien las condiciones de la modulación a emplear, según las características de cada enlace de radio. Una facilidad que se refuerza con el empleo de antenas mejoradas, “smart antenas”, que incrementan la eficiencia y cobertura de la comunicación, aprovechando la experiencia tecnológica de la telefonía móvil 3G para este componente.

Del mismo modo, las transmisiones del estándar 802.16 se definen en los niveles más bajos del modelo de conexión informático, en el nivel físico y en el nivel de Control de Enlace Lógico de Datos, en LLC (Logical Link Controller), que define una única capa que actúa como interfaz de acceso al medio, por lo que el enlace se produce con independencia del transporte que se quiera utilizar, lo que permite el empleo o compatibilidad con distintos modos de señalización: Ethernet, ATM, Token Ring y otros. Una característica que le proporciona una gran flexibilidad para ser utilizada en multitud de situaciones como solución inalámbrica adecuada de amplio espectro y, algo importante, de forma segura. El estándar 802.16 contempla en sus protocolos la seguridad con mecanismos que aportan privacidad y criptografía a las comunicaciones. Soporta algoritmos de encriptación avanzados como es AES (Advaced Encryption Standard), autenticación con certificados X.509 usando DES (Data Encription Standard), en modo CBC (Cipher Block Chaining, Encadenado de Bloques Encriptados) y Triple DES (3DES). El nivel de seguridad en las transmisiones de las conexiones inalámbricas ha evolucionado. WiMax es un claro ejemplo de ello y las redes inalámrbicas tienen en la actualidad un nivel de seguridad equiparable al que se da en redes cableadas.



Más allá de una simple conexión

Con estas características y prestaciones, WiMax se plantea como una atractiva solución de conexionado en situaciones en donde el rendimiento y coste son factores determinantes para establecer enlaces apropiados para cubrir necesidades que vayan más allá de la simple conexión. Como evolución de las redes WiFi convencionales, resuelve los principales defectos de éstas: seguridad, calidad y ancho de banda. Así, con los 75 Mbps que pueden lograrse con el WiMax fijo (802.16d) sobre extensiones de 50 kilómetros, esta tecnología se encuentra capacitada para soportar aplicaciones exigentes con el medio de transmisión, aquellas más sensibles a la latencia y que en la practica son las que aportan valor real a cualquier enlace, como es la transmisión de voz e imagen, Voz sobre IP y videoconferencia, por ejemplo. Servicios que de siempre y por definición, se ha descartado su canalización en redes inalámbricas. Mientras que WiFi fue pensada y desarrollada únicamente para transmitir datos, WiMax surge con intención de soportar cualquier servicio IP y, desde esta base, la diferencia entre ellas no hay que buscarla únicamente en el caudal de transmisión. El soporte para Calidad de Servicio (QoS), y una modulación mucho más compleja le permiten disponer de los mecanismos necesarios con los que poder asumir esas aplicaciones con un nivel de calidad y seguridad adecuados. WiMax posibilita un único enlace muy flexible para el suministro de servicios “triple play” (voz, video y datos), puesto que puede plantearse como un transporte LAN /WAN por sí mismo o combinarse con el resto de conexiones, cableadas o no, para distribuir capacidad de banda ancha en situaciones en las que por otros medios resulta inviable tecnológicamente o no compensa en lo monetario.

Esto hace que en el segmento de los operadores y proveedores de servicios de Internet (ISP) también tenga predicamento, pues abre nuevos horizontes para sus posibilidades de negocio. Esta tecnología les permite conformar soluciones eficaces con las que llegar a los potenciales clientes que demandan sus servicios pero no disponen de una cobertura de comunicaciones adecuada. Naves dispersas en polígonos industriales, instalaciones en las afueras de núcleos urbanos y, cómo no, el medio rural, en donde es endémica la falta de infraestructuras de comunicaciones, disponen ya de una oferta de conectividad que en cuanto a técnica es viable, además de por calidad y, lo más importante, muy asequible económicamente. No necesita de una aparatosa ni compleja instalación, por lo que posibilita que puedan contar con todos los servicios disponibles en banda ancha, allí donde hasta ahora era impensable. Se da la paradoja de pequeñas poblaciones que no tienen cobertura telefónica de ningún tipo y, sin embargo, los vecinos disponen de acceso a Internet, sin envidiar las prestaciones del ADSL.

USB 3.0: mucho más que velocidad

Algunas de las especificaciones clave más importantes del esperado USB 3.0 se han dado a conocer en las últimas semanas. Aunque este nuevo estándar también ha sido denominado como el USB Súper Rápido (SuperSpeed USB), hay quienes opinan que estas mejoras en la velocidad de transmisión de los datos es, quizá, lo menos relevante de esta nueva versión. Sea como fuere, lo cierto es que aún tendremos que esperar unos meses para disfrutar del nuevo estándar, que llega repleto de novedades que repasamos a continuación.

Seguramente tendremos que esperar hasta 2010 (si las cosas se dan bien, puede que incluso la fecha se adelante al próximo año) para que esté formalmente desarrollado y completo, pero lo cierto es que USB 3.0 empieza a completar sus características y especificaciones técnicas y, por tanto, a sonar con fuerza.

Ha pasado casi una década desde que se empezara a utilizar la versión 2 de USB (Universal Serial Bus), un puerto de conexión y comunicación altamente eficaz e indispensable en la informática actual. Sin embargo, el desarrollo y la introducción de mejoras durante este período no ha estado estanco y la versión 3.0 está casi lista para salir de los fogones de sus promotores.

Sin duda, la reciente celebración del foro de desarrolladores de Intel (el conocido como IDF) ha vuelto a ser el punto de apoyo para que empiece a sonar con fuerza el USB 3.0. Pero, ¿qué hay de nuevo en esta versión?



Determinando las especificaciones

Sin duda, USB 2.0 aporta más velocidad a las conexiones que la primera versión de este puerto (¿quién no ha recibido una notificación en Windows, al conectar un dispositivo al puerto USB , del tipo “este dispositivo puede conectarse más rápido con USB 2.0”?). Pero, paradójicamente, es precisamente la velocidad uno de los aspectos en los que se ha venido a demandar más mejoras. Quizá por eso a USB 3.0 se le conoce como el USB Súper Rápido (SuperSpeed USB).

Una de las compañías más implicadas en el desarrollo e implantación de USB es, qué duda cabe, Intel, quien, como decíamos, ha dado a conocer recientemente la mayoría (aunque no todas) de las especificaciones de la tercera versión de este puerto de conexión. Sin embargo, al haber desvelado las especificaciones claves más importantes, se abre definitivamente la puerta a que otros implicados de la industria puedan iniciar ya el desarrollo de sus productos compatibles con USB 3.0.

Para mejorar el rendimiento en la velocidad, el cable del USB ofrece cinco líneas (una más que la versión 2.0). Así, dos de éstas serán utilizadas para el envío de información y otras dos para la recepción. Es así como se conseguirá, gracias a una comunicación más bidireccional, un incremento de la velocidad de transmisión de hasta el 10 por ciento (hasta 4,8 Gbps), según defienden todos los implicados en el desarrollo de este estándar.

Estos mismos protagonistas aseguran que, como es lógico, este nuevo estándar está pensado para que sea totalmente compatible con las versiones anteriores. Y, aunque los puertos y cables USB 3.0 serán diseñados para ofrecer compatibilidad con versiones anteriores y también con capacidades ópticas futuras, lo cierto es que estas mayores prestaciones del futuro estándar también conllevarán que, precisamente, estos cables sean más anchos y menos rígidos a los que estamos acostumbrados a manejar con los USB. El grueso que pasan a tener es similar al de los cables que se usan en redes Ethernet, lo que les conferirá también mayor rigidez.

Pero, además, otras de las mejoras importantes de esta tercera versión del estándar está en la cantidad de energía que es capaz de transportar un cable USB.

De hecho, en los últimos tiempos, cada vez es más frecuente que la recarga de determinados dispositivos (como teléfonos móviles, agendas, cámaras o reproductores de MP3) se lleve a cabo a través de puertos USB. Un proceso que puede llegar a ser realmente lento, sobre todo si son varios los dispositivos que recargamos a la vez o si contamos con los denominados hubs (o ladrones de USB), que nos permiten contar con varios puertos donde, en realidad, sólo existía uno.

Así pues, en USB 3.0 se ha trabajado para llegar a incrementar la intensidad de la corriente hasta los 900 miliamperios (cabe recordar que hasta ahora se contaba con 100). El reto es, cómo no, poder cargar más dispositivos o hacerlo más rápido. Además, y con el reto de que esto no repercuta en el rendimiento de la energía, USB 3.0 incorpora un nuevo protocolo basado en interrupciones, al contrario que el anterior que se basaba en consultar a los dispositivos periódicamente.

Como decimos, pese a todas estas novedades, el Grupo Promotor de USB 3.0 se ha comprometido a preservar la infraestructura e inversión actuales en controladores para dispositivos USB, su aspecto y su facilidad de uso, al tiempo de continuar aumentando las capacidades de esta grandiosa tecnología.







USB 3.0 será 10 veces más rápido

Así pues, podemos resumir que, según la promesa de Intel, la especificación 3.0 del bus USB podrá ofrecer diez veces la velocidad de las actuales conexiones USB 2.0. En el grupo de desarrollo también se encuentran HP, Microsoft, NEC, NXP Semiconductors y Texas Instruments.

USB 3.0 será un estándar compatible con versiones anteriores para permitir la conexión de los dispositivos actuales, pero añadirá una conexión de fibra óptica en el mismo cableado, pues será la transmisión óptica la que permitirá el incremento de velocidad, que llegará hasta los 4,8 gigabits por segundo. Además se va a mejorar su eficiencia energética.

“USB 3.0 es el siguiente paso lógico para la conexión cableada más popular en los PC”, dijo Jeff Ravencraft, estratega de tecnología de Intel y presidente del foro de implementadores de USB (USB-IF). “La era digital requiere alta velocidad y conectividad fiable para mover las enormes cantidades de contenido digital presentes en vida diaria. El USB 3.0 resolverá este desafío mientras que mantienen la sencillez de uso que les gusta a los usuarios y que esperan de cualquier tecnología USB”.







Más que velocidad

Como decimos, teóricamente este SuperSpeed USB será capaz de ofrecer una velocidad de hasta 4,8 Gbps, diez veces más que lo que estamos acostumbrados ahora con la versión 2.0, lo que sin duda supone un paso importante en el rendimiento.

Se supone, además, que para cuando USB 3.0 haga su irrupción en el mercado (2010), las unidades de almacenamiento (por ejemplo) habrán sido re escritas para poder sacar partido de estas mayores prestaciones. Además, los desarrolladores de software también habrán podido hacer su trabajo para solventar las diferencias que existen con respecto a USB 2.0.

USB 3.0 está diseñado como de doble dirección, con un protocolo de comunicaciones rediseñado técnicamente, con el fin de gestionar los múltiples canales de información de una sola vez. Se trata de un gran cambio, sobre todo si se compara con la manera en la que, hasta ahora, se gestionaban estas tareas en las versiones previas de este sistema de comunicación.

Y, aunque como decíamos, los cables serán más anchos que los que ahora mismo manejamos, también es cierto que serán capaces de ofrecer más potencia, lo que abrirá la puerta a que los puertos USB ofrezcan muchas prestaciones, especialmente como fuente de recarga de los dispositivos. Y, por supuesto, estas mayores prestaciones también van a permitir que el número de dispositivos que se puedan conectar a un único controlador se amplíe y no tenga las limitaciones a las que ahora estamos acostumbrados.

Sin embargo, y pese a que se habla de que la velocidad será diez veces superior a la que ofrece USB 2.0, lo cierto es que hay voces que aseguran que este rendimiento será insuficiente para cuando USB 3.0 haga su irrupción en el mercado. Basta con pensar en el vídeo en alta definición o el tamaño de archivo que pueda alcanzar cualquier foto tomada con una cámara digital.

Retos y soluciones a la ciberocupación

Este resumen no está disponible. Haz clic en este enlace para ver la entrada.

EMC encuentra el momento actual especialmente propicio para las adquisiciones

EMC está al acecho de nuevas oportunidades de compra, pero sólo le interesan aquellas empresas que puedan ayudarla a consolidar y mejorar sus actuales líneas de negocio. Sus planes no contemplan el hacerse con compañías para entrar en nuevos mercados, según Joe Tucci, presidente y CEO de la organización.

En una presentación ante los analistas financieros, Joe Tucci, definió ayer las fusiones y adquisiciones “oportunistas” como una de las estrategias clave de EMC para mejorar su competitividad durante la actual crisis económica. Con 9.000 millones de efectivo disponible en EMC y los precios de las empresas en caída debido a la situación financiera, el momento es especialmente propicio para este tipo de actuaciones, según Tucci.

“Actualmente, mi objetivo número uno en este sentido sería una compañía que actuara en un negocio muy similar al nuestro, no en un mercado adyacente. No creo que sea el momento para entrar en nuevos mercados, sino para hacernos más fuertes”, explicó el CEO de EMC.

Entre las posibles candidatas se incluirían, en palabras de Tucci, “empresas capaces de reforzar nuestra estrategia de infraestructura virtual, y fortalecer en consecuencia nuestra estrategia de infraestructura de la información en general”.

Mejorar su línea de productos y su tecnología es hoy una prioridad para EMC, pero Tucci cree que para conseguirlo no será necesario dedicar a investigación y desarrollo más del 12% de los ingresos alcanzados por la compañía a lo largo de este año; el mismo que dedicó a esta área en 2007 y 2008.

Internet a todo gas

La demanda de servicios en banda ancha aumenta en la misma proporción en la que los proveedores de servicio buscan medios y alternativas para poder ofrecerlos. Broadband in gas (big) puede ser la siguiente propuesta para que los usuarios dispongan de servicios telemáticos de calidad y a bajo coste.



El modelo de sociedad actual desarrollada se articula, como todos experimentamos a diario, en base a una tecnología que se utiliza de forma cotidiana sin apenas reparar en ella. Desde aquello que pueda resultar más sencillo, calentar la comida en un microondas, a lo más sofisticado, como puede representarlo un aparato de diagnóstico de medicina nuclear. Y dentro de los distintos ámbitos de la tecnología en general que se aplican a los diferentes intereses y actividades de los individuos, hay un área que, desde hace 15 años, destaca con brillo propio sobre el resto de avances que día a día se van consiguiendo: Informática. No en vano, la sociedad en la que nos ha tocado vivir, recibe como denominación Sociedad de la Información. La demanda y el consumo de información actual ha provocado ya que, dentro de los que se pueden considerar suministros e infraestructuras básicos del hogar, se empiece a plantear incluir contar con servicios de Banda Ancha, como antes ocurrió con la televisión y no hace mucho con el teléfono.

Para alcanzar a los potenciales consumidores de información en sus distintos formatos, los proveedores de este tipo de servicios tienen que resolver y competir por lo que se ha dado en llamar la última milla, la milla de oro. El tramo de conexión final para llegar al usuario y el más problemático para los proveedores de servicio no sólo a nivel de competencia comercial, si no también peliagudo en cuanto a que debe ser lo suficientemente amplio como para permitir ofrecer servicios atractivos y que son los de más demanda por parte de los usuarios. Para llevar estos servicios a los usuarios y cubrir ese tramo, hace tiempo que existe la tecnología de comunicación necesaria para llevar estos servicios al usuario residencial. Sin embargo, aunque factible sobre el papel, en la práctica no siempre es viable. Porque cuando es rentable la explotación comercial de un determinado medio, resulta inviable en razón de tendido y despliegue. Y viceversa. Así, los proveedores de servicios tienen que afinar el ingenio para buscar alternativas que les permita llegar al mayor número posible de suscriptores, en condiciones de viabilidad técnica y rentabilidad comercial y el resultado son las distintas alternativas de conexión de acceso que conforman hoy por hoy el catálogo de servicios de los suministradores. Soluciones la más de las veces imperfectas para ser aplicadas de forma masiva y, por tanto, de mejor explotación comercial para que el usuario pueda utilizarlas a un precio reducido.







Broadband in Gas

En esta línea, viene circulando desde hace algún tiempo por los mentideros tecnológicos el anuncio de una compañía americana de gas que afirma tener desarrollada y lista una nueva tecnología que puede resultar una atractiva alternativa para los usuarios de este tipo de energía, para obtener servicios de información en banda ancha, de alta calidad y a bajo coste, sin que los destinatarios de esos servicios y los proveedores tengan que realizar ninguna modificación significativa de tendido o despliegue. La compañía de gas propone utilizar sus conducciones de suministro que llegan hasta sus casas para llevar, también, la señal para acceso a Internet y a otros contenidos multimedia, como televisión o vídeo. Es decir, Banda ancha por Gas, Broadband in Gas o BiG, siglas con las que se está empezando a dar a conocer a esta novedosa tecnología.

BiG plantea aprovechar las leyes físicas por las que se rigen el material con el que se construyen las tuberías (metal y plástico) y las condiciones de tendido con las que se instala la red de suministro de gas para distribuir una señal de datos para que, de la misma forma a como se hace llegar el combustible hasta cada casa, también llegue la televisión, vídeo o el acceso a Internet. En el mismo punto en donde el usuario tiene el contador de gas, la instalación de un pequeño aparato complementario haría de punto de acceso para enviar recibir la señal de esta autopista subterránea de información. El planteamiento inicial, al menos para las compañías suministradoras de gas y proveedores de servicios de información resulta prometedor, habida cuenta del número de hogares que cuentan con el gas como principal fuente de energía. Para los primeros, supone dar un valor añadido a una infraestructura ya desplegada y para los segundos, poder ofertar servicios con gran demanda, a precios reducidos y, lo más importante, viables comercialmente, puesto que no les obliga a realizar inversiones en infraestructuras de difusión y pueden alcanzar zonas que por otros medios resultan impracticables. Para los usuarios, es interesante contar con una alternativa de conexión de bajo coste y alta calidad para disponer de servicios de información que ahora obtienen por diversos medios, no siempre de forma satisfactoria en calidad y precio. Todo será cuestión del interés que suministradores de energía y proveedores de contenidos le pongan al desarrollo de este medio de transmisión, para que la tecnología evolucione y su implementación sea una realidad. No hay que perder de vista que ya existen y se comercializan tecnologías con un planteamiento similar de aprovechar la infraestructura energética ya disponible, para transportar señal de datos a los hogares de los abonados, como es PLC, la tecnología que introduce una señal de datos por las líneas eléctricas, utilizando frecuencias distintas a la que utiliza la electricidad y, sin embargo, no han sido capaces de responder a las expectativas que crearon en sus inicios y actualmente sólo se aplica de forma marginal, para resolver situaciones puntuales.



Aportación de BiG

La Banda Ancha por Gas, llama la atención no porque se articule sobre un medio inestable y peligroso como es la conducción de gas. Se fija la atención en este medio de transmisión por las posibilidades que sobre el papel tiene, más allá del ahorro de tendido o el radio de alcance de potenciales usuarios. Esta tecnología surge como resultado de un hallazgo casual, consecuencia de los esfuerzos de la compañía gasística que la ha desarrollado, por encontrar un medio eficaz de prevenir y detectar fugas de gas en sus tuberías utilizando la transmisión de radio frecuencia sobre los tubos para localizar los puntos de huida del gas o aquellos que pudieran ser susceptibles de escapes. Los estudios que con este fin se realizaron desvelaron la posibilidad de introducir una señal portadora para otro tipo de información y con distinta finalidad, de forma inocua para el combustible que circula por el mismo conducto y susceptible de ser explotada comercialmente. Esquemáticamente, la transmisión de señal en BiG consiste en una estación emisora de señal radio eléctrica que se encarga de recibir la señal a transmitir, introducir dicha señal sobre la tubería de la conducción del gas, propagar la señal aprovechando las características conductivas del metal utilizado en la fabricación de las tuberías de gas y extraerla posteriormente, mediante un dispositivo final instalado en casa del abonado, normalmente colocado junto al contador, similar en funcionamiento al archiconocido “spliter” de la banda ancha telefónica, DSL. Este dispositivo de usuario final, conecta con el resto de dispositivos del abonado, mediante una conexión inalámbrica, lo que evita que los usuarios que suscriban este servicio tengan que hacer ninguna modificación de tendido de cable o tubería en sus casas. Ambos extremos permiten comunicaciones bidireccionales. Como se ve, en la práctica, se trata de enlazar los extremos de una conexión inalámbrica, proveedor de servicio-abonado, “cableando” la distancia que los separa mediante la conducción del gas.

Para introducir la señal en el tubo de la conducción de combustible, los desarrollos de BiG han optado por seguir las especificaciones para acceso al medio que se están definiendo para el estándar 802.15. Los comités de trabajo de IEEE 802.15 se ocupan de marcar las líneas maestras para obtener una tecnología de comunicación inalámbrica entre dispositivos autónomos a pequeña distancia, siendo su principal aplicación la conexión de sensores en entornos personales, lo que se ha dado en llamar dispositivos WPAN (Wireless Personal Area network, Red Inalámbrica de Área Personal), tales como automatismos, dispositivos domóticos, sensores de seguridad para alarmas, detectores de movimiento y otros similares. En función de la banda de frecuencia utilizada y de la potencia transmitida, se espera que puedan alcanzar conexiones que cubran distancias entre 10 y 75 metros. Extensión suficiente para obtener una excelente cobertura de señal inalámbrica para cubrir la conexión de los dispositivos de una casa con el punto de acceso a la red, máxime cuando la señal normalmente se propaga en el interior, en donde las posibles interferencias son más reducidas. Este nuevo estándar es el más adecuado para introducir la señal a transportar por la conducción de gas, debido a la baja potencia de energía de funcionamiento que necesitan los dispositivos de adaptación al medio de comunicación, emisión y recepción de señal lo que les hace idóneos para reducir los riesgos asociados a la cercana circulación del gas, en un entorno cerrado como resulta la tubería. Las transmisiones basadas en 802.15 permiten esperar tasas realistas de hasta 2 Gbps, aunque teóricamente, sobre el papel, se podrían llegar a los 10 Gbps, superior a cualquier otro medio de transmisión actual, superando incluso a la hasta ahora imbatible fibra óptica. Según la información que ha proporcionado la compañía que desarrolla BiG, en las pruebas que están llevando a cabo se han conseguido entregar caudales de 6 Gbps. En cualquier caso, se trata de un ancho de banda sobrado para poder transmitir contenido de cualquier complejidad, por lo que streaming, acceso a Internet y otros usos de la señal, tienen cabida sin apreturas. Y representa unas expectativas de capacidad muy superiores a las que ofrece actualmente y en un futuro a corto plazo la tecnología más implantada en Banda Ancha, DSL, en donde los caudales ofertados por los proveedores de servicio resultan en la práctica más un reclamo publicitario que una realidad constatable por el abonado.

De esta forma, la Banda Ancha por Gas, además, supone una oportunidad de desarrollo para la tecnología de 802.15, proporcionándole un espacio en el que operar, alejado de las interferencias que provocan las transmisiones de la señal inalámbrica 802.11, en cualquiera de sus versiones, que según el caso, pueden llegar a anular las comunicaciones de este incipiente nuevo estándar, consecuencia de la saturación del espacio radio eléctrico no regulado. Se espera que los trabajos de los comités de normalización 802.15 diseñen las especificaciones que permitan superar esta limitación.

La transmisión de la señal sobre las tuberías de gas que hace BiG tiene en otra emergente tecnología su principal baza: UWB (Ultra Wide Band, Ultra Banda Ancha). Las transmisión sin cable de señal UWB tiene una aplicación reciente en el ámbito civil, pero su uso es bien conocido y aplicado en el área de las comunicaciones militares desde hace bastantes años, por lo que la industria tiene una experiencia suficiente para comprobar que es una tecnología que se adapta perfectamente a los requisitos que los usuarios esperan de sus dispositivos portátiles: pequeño tamaño, larga autonomía de funcionamiento y suficiente capacidad para sus aplicaciones. Si bien en espacio abierto esta tecnología tiene problemas para su desarrollo, consecuencia de la competencia directa de los estándares 802.11 y la falta de normalización, sobre el espacio cerrado y exclusivo que le proporciona BiG, las características de UWB tienen oportunidades que no pueden aprovechar otras comunicaciones más evolucionadas.

Cisco propone hasta 320 servidores en un único Unified Computing System

Tras las Comunicaciones Unificadas, llega el procesamiento unificado. Cisco ha presentado en España su estrategia UCS (Unified Computing System), por la que se pretende evolucionar el CPD (centro de datos) para hacerlo más eficiente.

Así, Cisco engloba en un único chasis el procesamiento, el almacenamiento y la virtualización que, tradicionalmente, se encuentran en máquinas independientes. Según Juan Carlos Escobar, director de desarrollo de negocio de Centro de Datos en Cisco España, con UCS se responde a una necesidad de mercado creada por la virtualización pero, además, “este sistema ayudará a potenciar la propia virtualización”.

Así, Escobar defiende que, en un CPD de 320 servidores (“de tamaño medio”), con UCS se conseguiría hacer un despliegue de minutos (en lugar de tener que emplear días o semanas), la inversión sería un 43 por ciento menor (12 millones de euros en lugar de 21 millones), el gasto en electricidad durante 3 años pasaría de 800.00 euros a 650.000 (lo que equivale a un 19 por ciento menos), se emplearían 12 racks en lugar de 31 y, al tener todos los cables integrados en un mismo chasis, sólo se emplearían 480 metros en lugar de 3.520.

Juan Carlos Escobar reconocía que a corto plazo Cisco no cree que vaya a hacer mucho negocio con esta nueva estrategia, pero sí en unos años. “De aquí a tres años estaremos entre los 5 principales fabricantes de servidores”. A este respecto, y preguntado por PC World, Escobar aclaraba que Cisco “no compite en el mercado de servidores como tal, si no que lo que hacemos es llevar los servicios a la red y eso es algo que sólo podemos hacer nosotros”.

No obstante, Cisco cuenta con diversos socios para acometer esta estrategia UCS, entre los que se encuentran Microsoft, EMC, BMC Software, Intel y Accenture, por mencionar unos pocos.


Arantxa Herranz

La Release Candidate de Windows 7 podría llegar en mayo

La Release Candidate (RC) de Windows 7, justo la última versión antes de que el sistema operativo entre en producción final para su lanzamiento oficial en el mercado, podría hacer pública en la última semana de mayo, según recoge la web Neowin.net.

Antes de este lanzamiento, Microsoft debería concluir una versión previa de esta Release Candidate (conocida como “escrow build”) y ofrecerla a un pequeño grupo de probadores a finales de abril, según esta misma información, que cita una página web rusa asó como fuentes cercanas al Technical Adoption Program de Microsoft, que ofrece a las grandes corporaciones pequeños vistazos de sus aplicaciones antes de que estén disponibles.

En Microsoft, por “escrow build” se entiende una edición posterior al desarrollo que se remite a los probadores para un examen final en el que se detecten cualquier problema o agujero de seguridad.

Cabe señalar que Microsoft aún no ha comunicado una fecha oficial ni del lanzamiento de Windows 7 ni de su Release Candidate. En los últimos días han aparecido algunas versiones nuevas no oficiales por Internet que contienen referencias a estas Release Candidate.

Nokia, cada vez más interesada en los netbooks

Nokia fabrica productos como los que ahora conocemos como netbooks o incluso como mini-portátiles. “No tenemos que mirar hacia el futuro para darnos cuenta de que lo que conocemos hoy en día como teléfono móvil y PC están convergiendo en muchos sentidos. Actualmente hay millones de personas que están teniendo su primera experiencia en Internet gracias a sus teléfonos móviles. Ésa es una gran señal de cambio”.

En su blog, Jacobs afirma que coincide con Kallasvuo en que los dos dispositivos están convergiendo, pero que, en cualquier caso, no sería fácil para una compañía como Nokia, que fabrica teléfonos móviles , entrar en el mercado de los portátiles. Desde su punto de vista, hay varios motivos para ello. Entre otras cosas, cita la actual competitividad que invade la industria del PC y la gran disparidad de componentes. Los teléfonos móviles, generalmente no incluyen ventiladores, discos duros u ópticos, lo que significa que, incluso para una compañía del calibre y reputación de Nokia, sería necesario invertir mucho tiempo y esfuerzo en negociar acuerdos con nuevos proveedores.

Jacobs cree que Nokia está perdiendo cuota de mercado en el segmento de los teléfonos inteligentes, donde el iPhone está arrasando. En los últimos trimestres, Nokia ha reflejado importantes bajadas en sus previsiones de ventas.

Lo cierto es que un portavoz de Nokia ha confirmado las palabras de Kallasvuo declarando que los portátiles son un área de interés para su compañía, pero no facilitó planes específicos al respecto.

Google está desarrollando Chrome para Linux

Google continúa dando de qué hablar en el segmento de los navegadores de internet. Y es que, según parece, la compañía se encuentra inmersa en la expansión del proyecto de código abierto denominado Google Chromium, cuya finalidad persigue mejorar la experiencia de Chrome, el navegador de Google, aunque en esta ocasión sería para entornos Linux.

De hecho, incluso ya se está comenzando a distribuir una versión todavía muy temprana, pre-alpha, de la aplicación, lo que demostraría que se trata de un proyecto en el que se confía bastante.

Los primeros usuarios que podrán acceder a esta versión pre-alpha de Chrome para Linux serán los que hayan optado por instalar Ubuntu, una de las distribuciones de Linux más utilizadas, aunque, al ser una versión todavía muy inmadura, parece que desde Google se envían numerosas actualizaciones -prácticamente diarias- en esta etapa inicial.

Desde el punto de vista del funcionamiento, quienes han podido instalar y analizar esta primera versión de Chrome en Ubuntu comentan que es muy semejante a Chrome para Windows desde el punto de vista del comportamiento, aunque por el momento es muy pronto para sacar conclusiones de si será más ligero o más rápido que otras alternativas.

Los lectores interesados en descargar e instalar esta primera versión de Chromium podrán acceder a ella desde launchpad.net/~chromium-daily/+archive/ppa, que se distribuye mediante repositorios de tipo PPA.

No obstante, además de estar trabajando en esta versión para Linux, Google también estaría desarrollando en paralelo Chrome 2.0, la próxima versión del navegador para plataformas Windows.


Daniel Comino