jueves, 24 de noviembre de 2016

Es oficial: Dell entregará Alienware y un descuento a quien haya comprado equipos a 679 pesos

Esto no ha terminado, y a pesar de que la semana pasada PROFECO emitió la orden para que Dell entregara las laptops Alienware después del error en su página, donde dichas computadoras tenían un precio de salida de 679 pesos. Hoy Dell ha emitido un comunicado donde especifica los detalles acerca de la entrega de estas computadoras.
En total Dell está presentando tres escenarios: el primero es el de aquellos que sí lograron hacer la compra; el segundo es para las personas que lograron hacer la compra pero no recibieron confirmación de envío; y por último, el de aquellos que enviaron la orden pero fue rechazada por el sistema. Veamos a detalle cada uno de los escenarios.
Leer más »

Telecomunicaciones en México son cada vez más económicas, precios caen 12.6% en octubre

Otra historia más en el libro de las telecomunicaciones en México. De un tiempo para la actualidad, afortunadamente, las historias que se escriben son positivas y favorables para los usuarios, hoy tenemos una más.
De acuerdo con el reporte de Índice de Precios de Comunicacionespublicado recientemente por el Instituto Federal de Telecomunicaciones (IFT), los precios de los servicios de telecomunicaciones en México se redujeron un 12.6% durante octubre pasado, respecto al mismo período del año anterior.
Leer más »

Elon Musk y otros titanes de Silicon Valley se alían con Microsoft para "democratizar" el uso de robots

OpenAI, la organización sin ánimo de lucro respaldada por el fundador de Tesla, Elon Musk junto otros pesos pesados de la industria como Sam Altman, presidente de Y Combinator o Peter Thiel, presidente y fundador de Palantir Technologies, se alía con Microsoft para seguir explorando y desarrollando nuevas formas de inteligencia artificial (AI, por sus siglas en inglés) así como soluciones a los retos que enfrenta este campo.

Además, OpenAI, especializada en la investigación de este sector, hará de Azure, la nube de Microsoft, su plataforma de referencia para seguir desarrollando experimentos a gran escala en este campo. Una decisión que llega justificada por el uso que ya viene haciendo esta organización de los poderosos servicios en la nube de Microsoft y sus servidores, como el Azure N-Series Virtual Machine.

"En los próximos meses utilizaremos decenas de miles de estas máquinas para incrementar el número de experimentos y el tamaño de los modelos que entrenamos", explicó OpenAI en un blog. No debemos olvidar que Microsoft está invirtiendo fuerte desde hace tiempo en la investigación y desarrollo de un sector con un potencial increíble cuyo alcance incluye áreas como la medicina o los bots, programas que charlan con sus usuarios con el objetivo de automatizar ciertas tareas.

Musk, capitán de Tesla y Space Exploration Technologies sumó fuerzas con el presidente de Y Combinator, Sam Altman y otras importantes figuras del sector tecnológico para formar OpenAI el pasado 11 de diciembre, con el objetivo de garantizar que la inteligencia artificial se desarrolla de forma segura y sus beneficios cuentan con una distribución masiva. "A través de este acuerdo, Microsoft y OpenAI avanzarán en su meta conjunta para democratizar la inteligencia artificial para que todos puedan beneficiarse", dijo un portavoz de Microsoft al portal TechCrunch.

De esta forma, los equipos de investigación de la compañía liderada por Satya Nadella trabajarán con sus homólogos en OpenAI para avanzar en este campo a través del uso de Azure y los servidores N-Series de Microsoft. También se explorarán herramientas como el Cognitive Toolkit, del gigante de software. Microsoft no ha querido desvelar si existe un componente monetario dentro de este acuerdo.

La consultora Markets and Markets proyecta que estel mercado alcance un valor de 5.050 millones de dólares en 2020. Sin embargo, los analistas de Tractica estiman que este año los ingresos globales de servicios y productos relacionados con la inteligencia artificial tocarán los 643,7 millones de dólares y pueden alcanzar los 36.800 millones de dólares en 2025.

EEUU: diez OPVs para revolucionar el mercado tras el peor año desde la crisis

El año que estamos a punto de terminar será recordado por su pavisosa actividad en lo que a salidas a bolsas se refiere. Hasta la fecha las compañías que se han atrevido a comenzar a cotizar públicamente en Estados Unidos han recaudado un total de 17.200 millones de dólares, un 40,3% menos que en 2015 y lejos del máximo de la última década registrado un año antes, cuando estrenos como el de Alibaba, disparó la recaudación total hasta los 86.600 millones de dólares, según datos de la consultora Renaissance Capital.

A poco más de un mes para cerrar 2016, todo hace pensar que las operaciones públicas de venta tocarán mínimos no vistos desde 2008 y 2009, cuando la crisis financiera desató la peor recesión económica desde la Gran Depresión. Según indican desde Renaissance Capital sólo 117 compañías han presentado sus documentos para preparar y gestionar su estreno bursátil, que comienza con la presentación del informe S-1 ante la Comisión de Mercados y Valores de EEUU (SEC, por sus siglas en inglés), esto supone una caída del 48% con respecto a 2015. De hecho sólo 96 OPV han fijado su precio en el país en lo que llevamos de año.
  
Pero para no ser aguafiestas y con las miras puestas ya en 2017, algunas consultoras hacen sus cábalas sobre qué compañías calientan motores para recaudar capital a través de la venta de acciones bien en la New York Stock Exchange o el Nasdaq, las dos plazas bursátiles por excelencia para este tipo de cometidos. Durante la semana que dejamos atrás conocíamos como Snap Inc, la matriz de la aplicación Snapchat y compañía fundada por el jovencísimo gurú Evan Spiegel, ha presentado ya los documentos para su estreno bursátil, que puede llegar en el primer trimestre de 2017.

Al no contar con unos ingresos que alcancen los 1.000 millones de dólares, de hecho este año sus ventas deberían oscilar entre los 250 y los 350 millones de dólares, Snap ha optado por comenzar este proceso de forma confidencial. Una alternativa relativamente nueva que muchas compañías utilizan desde que en 2012 se aprobase la Ley JOBS, en busca de fomentar que empresas de pequeño y mediano tamaño tengan acceso a los mercados públicos. El objetivo de esta normativa fue también reducir las elevadas valoraciones que muchas entidades cuentan en el mercado privado. Una dinámica fomentada por el capital de riesgo y el boom de las redes sociales, como Facebook o Twitter.

http://www.eleconomista.es/mercados-cotizaciones/noticias/7967389/11/16/Las-10-salidas-a-bolsa-que-prometen-revolucionar-al-mercado-en-2017.html

Los problemas del Galaxy Note 7 hunden un 14,2% las ventas de móviles de Samsung en el tercer trimestre

Samsung vendió un 71,8 millones de smartphones en el tercer trimestre de 2016, lo que supone un 14,2% menos en comparación con el mismo periodo de 2015, según los datos de la consultora Gartner, que atribuye el descenso a los problemas con la batería experimentados por el Galaxy Note 7.

La caída del 14,2% en las venta de smartphones de la firma surcoreana en el tercer trimestre supone el peor rendimiento interanual en la historia de Samsung, después de que en el cuarto trimestre de 2014 su nivel de ventas descendiera un 12,3%.

"La decisión de retirar el Galaxy Note 7 fue correcta, pero el daño a la marca Samsung dificultará que la compañía aumente sus ventas de teléfonos inteligentes en el corto plazo", comentó al respecto el director de análisis de Gartner, Anshul Gupta, que añade que "es crucial" para la compañía que el lanzamiento del Galaxy S8 sea "exitoso" para recuperar la confianza de los clientes.

A pesar de la caída de ventas, Samsung continua siendo el líder del mercado de teléfonos móviles inteligentes con una cuota del 19,2%, aunque se ha visto reducida frente al tercer trimestre de 2015, cuando fue del 23,6%.

Las ventas de Apple también caen

No obstante, Apple no ha conseguido aprovecharse de los problemas de su rival surcoreano y sus ventas han caído también un 6,6% en este periodo, hasta 43 millones de unidades, lo que representa una cuota de mercado del 11,5%, el peor nivel de la firma de Cupertino desde el primer trimestre de 2009.

Las ventas de los smarthpones con la característica manzana mordida al dorso se han reducido un 8,5% en EEUU y un 31% en China, los dos principales mercados de Apple, a pesar de que el lanzamiento del iPhone7 ha contenido la caída.

De este modo, han sido las firmas Chinas quienes se han aprovechado de la caída de ventas de Samsung, con un incremento del 18% en las ventas de Huawei, que alcanza una cuota de mercado del 8,7%. Por su parte, Oppo y BBK Communication Equipment han doblado su presencia en el mercado de smartphones y alcanzan una cuota de mercado del 6,7% y del 5,4%, respectivamente.

"China ha liderado el crecimiento en el mercado de smartphones en el tercer trimestre", destacó Gupta, al respecto de un mercado que creció un 5,4%, frente al crecimiento del 12,4% del gigante asiático.

En cuanto a sistemas operativos, Android continúa siendo el líder absoluto del mercado con una cuota del 87,8%, frente al 11,5% de iOS, el 0,4% de Windows y el 0,1% de Blackberry.

http://www.eleconomista.es/tecnologia/noticias/7966127/11/16/La-bateria-del-Galaxy-Note-7-hunde-un-142-las-ventas-de-moviles-de-Samsung-en-el-tercer-trimestre.html

domingo, 2 de octubre de 2016

Apple enfrenta un desafío con la Inteligencia Artificial

Apple se convirtió en una de las mayores empresas del mundo gracias a esta paradójica invención, y ahora también puede verse amenazada por dónde se dirige el software.

Como informó Brian X. Chen, de Apple esta semana celebró su reunión grande para los desarrolladores de software externos, las personas que hacen los productos de Apple esencial para muchos mediante la creación de nuevas cosas para los teléfonos de Apple, tabletas y ordenadores .
Esta sesión fue más acerca de ponerse al día con sus rivales. La Manzana ofreció una nueva manera de enviar dibujos y escribir, nuevas formas de foto-organización, y una limitada incorporación de Siri, el asistente virtual de Apple, a software de terceros.

Pero otras empresas, desde Google a otros servicios de mensajería independientes, ya han estado allí.
Google Maps, más popular que la versión de Apple, funciona bien, poniendo en común las experiencias de millones de usuarios, a menudo en tiempo real, para ofrecer información precisa sobre cosas como atascos de tráfico. Echo, el asistente virtual de Amazon hace un gran trabajo en la reproducción de tus canciones o comprando cosas para ti, ya que han recolectado una gran cantidad de datos de las personas.

Estos son sólo dos ejemplos de una gran tendencia en software, la aplicación de la inteligencia artificial en tiempo real en los productos ordinarios.

I.A., que es fundamentalmente el reconocimiento y el aprovechamiento de todas las clases de patrones de comportamiento, funciona bien mediante el uso de conjuntos muy grandes y diversos de datos. A menudo, mientras más personal, mejor. Para hacer que software con características I.A., tienen que ser capaces de acceder a una gran cantidad de información, obtenida por diversos medios.

Timothy D. Cook, presidente ejecutivo de Apple, se ha posicionado como alguien que valora la privacidad de los clientes, como elemento clave, algo que se vió en su batalla con el FBI sobre el acceso a un iPhone después de los disparos de San Bernardino. Eso es quizá estupendo desde una perspectiva de marca, pero puede entrar en conflicto con la forma que una gran cantidad de software va a ser escrito.

Fuente: NYTimes

Google protege Chrome contra hacking cuántico

Si estás preocupado por los ordenadores cuánticos y que estos puedan tener acceso a tus datos cifrados, no te debes preocupar, Google se está asegurando de que esto nunca sucederá.

El gigante de las búsquedas está trabajando en el cifrado post-cuántico para su navegador de Internet Chrome, anunció hoy en un blog el ingeniero de software Matt Braithwaite.

Los ordenadores cuánticos, que todavía se encuentra en su infancia, utilizan aspectos avanzados de la física cuántica para resolver problemas exponencialmente más rápido que las computadoras binarias de hoy en día. Eso significa que el cifrado moderno, para internet HTTPS, no puede hacer frente a los ataques de informática cuántica.

Los ordenadores cuánticos son todavía muy experimentales, y no hay garantía de que un ordenador cuántico capaz de ese tipo de ataque se construirá. La cuestión es que incluso un ordenador cuántico podría hipotéticamente
de forma retrospectiva descifrar cualquier comunicación por Internet que se registra hoy … por lo tanto, incluso la posibilidad de un ordenador cuántico futuro es algo que debemos pensar en la actualidad
Desplegado sobre un pequeño número de conexiones entre Chrome y los servidores de Google, el nuevo estilo de clave de cifrado se está probando junto con las medidas de seguridad actuales. Si la clave es correcta, Google dice, podría hacerle frente a los computadores cuánticos.

Más información: Blog Google
http://www.inteldig.com/2016/07/google-protege-chrome-contra-hacking-cuantico/

La distribución de aplicaciones para Linux acaba de mejorar

Tradicionalmente, los desarrolladores de aplicaciones tienen que crear versiones específicas de su aplicación para cada versión diferente de Linux donde quieren que funcione, y muchas distribuciones se quedan fuera, o se quedan atrás en las actualizaciones, o tiene que crear sus propios paquetes compatibles. Snap soluciona este problema incluyendo las dependencias necesarias dentro de la aplicación, en lugar de esperar esas dependencias en el sistema operativo subyacente a través de un proceso de instalación como apt-get.

Snap también ofrece una serie de otras ventajas, como instalaciones más rápidas, actualizaciones automáticas, y normas de seguridad para limitar la aplicación sólo a ciertas funciones del sistema operativo. Incluso puede suscribirse a un canal de actualización específica de un paquete, donde se puede elegir la forma estable, beta y versiones “Canarias” de Chrome. También hay un tienda Ubuntu Snap donde se puede buscar a través de aplicaciones aprobadas por Ubuntu.

La desventaja principal es el tamaño del paquete: debido a que cada aplicación trae sus propias dependencias, no todos pueden confiar en una sola biblioteca popular, por lo que termina con una gran cantidad de duplicados escondidos en cada paquete. Por supuesto, esto suele ser una buena cosa, porque significa que una instalación no puede actualizar una biblioteca a una versión incompatible y afectar las otras aplicaciones.

Existen otros proyectos similares por ahí con muchos de los beneficios de snap. Por ejemplo, el formato de paquetes llamado AppImage. Pero la influencia obvia de Ubuntu en el mercado y la calidad aparente del formato parece haber ganado por ahora.

Más información: Ubuntu
http://www.inteldig.com/2016/06/la-distribucion-de-aplicaciones-para-linux-acaba-de-mejorar/

Panasonic desarrolla una batería de litio flexible

Uno de los mayores desafíos de la industria de la tecnología es alcanzar el sueño de los teléfonos móviles flexibles. Pero, para lograrlo, aún quedan aún algunos flecos por resolver. Se ha logrado, por ejemplo, que las pantallas puedan hacerlo, pero otro tipo de componentes se resisten. Panasonic ha dado un paso importante. La firma japonesa ha desarrollado un tipo de batería de ion de litio flexible que no pierde la carga. Este tipo, pese a encontrarse aún en una fase muy incipiente, está pensado especialmente para integrarse en todo tipo dispositivos móviles, no solo «smartphones», sino también en aparatos «wearables» -ponibles, en español- como relojes inteligentes.

Y en ese recorrido anda metido la industria desde hace algún tiempo, aunque no se han obtenido resultados finales demasiado esperanzadores para su comercialización en masa. Otras compañías han puesto en marcha proyectos de pantalla flexibles como Samsung o LG, pero para poner de manifiesto el verdadero avance se requiere, en efecto, de baterías que proporcionen autonomía suficiente, de forma que contribuirá a ampliar el ciclo de vida de los dispositivos, ya que conserva las características de carga y descarga, incluso con repetidas torsiones (hasta más de mil veces prometen).

Hasta ahora, según explican desde Panasonic, el gran escollo a salvar ha sido que las anteriores baterías que eran capaces de doblarse se descargaban con demasiada facilidad en el momento de plegarse. Un verdadero problema en un momento de la excesiva dependencia de baterías en un sinfín de productos tecnológicos y sumado a un contexto en el que se está extendiendo la era del «Internet de las Cosas» que plantea un mundo totalmente conectado.

Ingenieros de la compañía nipona aseguran en un comunicado que han logrado desarrollar una batería de ion de litio -extendida en gran cantidad de productos electrónicos actuales- que mantiene sus características «incluso después de doblarlo numerosas veces» en un radio de 25 milímetros o retorcidas en un ángulo de 25 grados. Tienen un grosor de solo 0.55 milímetros (aproximadamente 0.022 pulgadas). Utiliza, a su vez, un sistema recién desarrollado de cuerpo exterior laminado y estructura interna que evitará posibles fugas.

Por el momento, estas baterías flexibles, no obstante, soportan muy poca capacidad, aunque representa un hito en el sector. Se han desarrollado hasta tres modelos, de 17.5, 40 y 60 mAh, por lo que todo parece indicar que estarán preparadas para el empleo en dispositivos capaces de adherirse al cuerpo o ropa inteligente. Durante la feria CEATEC Japan, que se celebra del 4 al 7 de octubre, Panasonic presentará este proyecto.

http://www.abc.es/tecnologia/informatica/hardware/abci-panasonic-desarrolla-bateria-litio-flexible-201609301509_noticia.html

Científicos chinos desarrollan un tejido que carga la batería del móvil

Científicos de la Universidad de Chongqing (China) han desarrollado un nuevo tipo de tejido que puede generar electricidad capaz de alimentar pequeños aparatos a partir del movimiento y de la luz solar, ha informado este viernes laprensa oficial china.

La composición y fabricación del tejido permiten que un trozo de cinco centímetros de largo y cuatro de ancho pueda generar energía suficiente para cargar un teléfono móvil o mantener en funcionamiento un reloj de muñeca con un movimiento constante y en momentos de suficiente luz.

Este tejido está hecho de fibras de poliéster combinadas con una capa de metal y semiconductores para captar y almacenar la energía y con células solares y generadores nanométricos incrustados y es muy fino, con un grosor de apenas 0,32 milímetros.

La capacidad generadora de esta tela se debe a un proceso llamado «efecto triboeléctrico» por el que ciertos materiales adquieren carga eléctrica cuando entran en contacto con otros.

Los investigadores de la Universidad de Chongqing desarrollaron este tejido junto a científicos del Instituto Tecnológico de Georgia (EEUU) y publicaron sus resultados en la revista científica Nature Energy este mes.

Los científicos chinos explicaron a la prensa local que todavía tienen pendientes las pruebas para determinar cuánto dura esa función en el tejido, pero ya han comprobado que puede doblarse 500 veces sin perder su efectividad.

«El tejido es seguro para el cuerpo humano», recalcó Fan Xing, profesor de ingeniería química de la Universidad de Chongqing, en declaraciones citadas por la agencia oficial Xinhua.

http://www.abc.es/tecnologia/informatica/hardware/abci-cientificos-chinos-desarrollan-tejido-carga-bateria-movil-201609301738_noticia.html

Científicos y expertos en computación de Microsoft buscan la manera de «resolver» el cáncer

En un laboratorio se acumulan probetas, vasos de plástico y mascarillas. En las oficinas de Microsoft, crujen teclas y los vasos de plástico se dedican a recoger café. Son muchas las diferencias entre un sitio y otro pero, desde hace unos días, Microsoft presume de estar muy de cerca de ser un laboratorio.

Y no es porque tenga unos despachos impolutos o todos trabajen en bata, sino porque el gigante de la informática se ha propuesto «resolver» el cáncer. Microsoft va a destinar científicos y expertos en computación a terminar con este mal. Con este programa, llamado Project Hanover, no buscarán una vacuna o unos cuidados paliativos nuevos. Simplemente tratarán de dar mejores herramientas a los que realmente buscan una cura: los oncólogos.

En un artículo publicado en su página web, Microsoft ha explicado algunos detalles de esta iniciativa. Por el momento han creado varios sistemas. Programas que, en algunos casos, permitirían a los doctores programar células que combatan enfermedades y sean resistentes contra el cáncer. Lo que defiende Microsoft es que «el cáncer y otros procesos biológicos son sistemas de procesamiento de información». «Nuestros equipos de investigación quieren lograr avances en la comprensión de los roles de la genética», dicen en su página web.

El objetivo más terrenal de este programa es dar a los científicos una gran cantidad de información para comprender el cáncer y desarrollar así tratamientos más personalizados y eficaces. Debido a su capacidad informática, Microsoft puede acumular mucha información y, por tanto, dar respuestas variadas a la enfermedad más devastadora de nuestro tiempo.

Los investigadores de Microsoft dicen que han hecho grandes esfuerzos para que sus sistemas sean fáciles de usar incluso para personas sin ningún tipo de cualificación «o interés particular» en la tecnología y la informática.

Insisten mucho desde Microsoft que su misión no es curar el cáncer. El artículo publico recalca mucho la palabra «resolver». La idea de este programa no es encontrar lo que los médicos llevan tiempo buscando, sino darle armas e inteligencia artificial para responder a las necesidades de cada enfermedad.

http://www.abc.es/tecnologia/informatica/abci-cientificos-y-expertos-computacion-microsoft-buscan-manera-resolver-cancer-201609301802_noticia.html

Sale del analfabetismo digital… ¡a sus 60 años!

GUADALAJARA, JALISCO (24/SEP/2016).- Por la pura satisfacción de aprender algo nuevo, a sus 60 años, José Ramiro Hernández comenzó un curso de computación en el Centro de Capacitación para el Trabajo Número 4 del Instituto Jalisciense de Asistencia Social (IJAS). “Fue un orgullo haber aprendido y reafirmar cosas que ya sabía, pero que hacía inconscientemente”.

José ya tenía acercamientos con las computadoras, gracias a negocios previos, de hecho fue su hija la que lo enseñó a encender una y a manejar lo básico; sin embargo, él quería saber más. “Yo sabía usar internet, pero hasta que llegué aquí aprendí lo que es Excel, Word, todos los programas…”.

Él es una de las dos millones 800 mil personas mayores de 55 años en el país, que utilizan una computadora.

En los últimos años se ha comenzado a hablar de los analfabetas digitales, “que son personas que no pueden, por decirlo de alguna manera, aprovechar las facilidades del acceso a una computadora, sobre todo del acceso a internet y solucionar los requerimientos que se necesitan para usar una computadora, que a lo mejor no sabe cómo utilizar los programas básicos: la creación de documentos, que no saben enviar un correo electrónico”, explica Ligia García Béjar, investigadora de la Escuela de Pedagogía de la Universidad Panamericana.

Continua en:  http://www.informador.com.mx/jalisco/2016/683562/6/sale-del-analfabetismo-digital-a-sus-60-anos.htm

Consejos para aumentar funcionamiento de Laptops

CIUDAD DE MÉXICO (24/SEP/2016).- Los ordenadores portátiles son una pieza necesaria para muchos usuarios, pues con ellos pueden trabajar, estudiar, revisar correos electrónicos o disfrutar de juegos con la misma potencia y versatilidad de un equipo de escritorio.

Pese a lo anterior, se trata de dispositivos mucho más propensos a sufrir daños en la batería y discos duros mecánicos, debido a los riesgos que implica la movilidad.

De acuerdo con el blog de la compañía fabricante de tecnología, Lenovo, uno de los componentes más necesarios de una Laptop es, sin duda, su batería que aporta autonomía e independencia eléctrica, y por ello es una de las que "más sufre".

"Es inevitable que tengamos que cambiar la batería de nuestro ordenador portátil por otra nueva tras acabar su vida útil, que suele rondar entre tres y cuatro años de vida, pero, mientras tanto, podemos adoptar una serie de medidas que pueden proteger e incluso alargar la vida útil de estos componentes" enfatiza.

La firma recomienda tener la batería cargada al máximo de capacidad posible y no conectar al cable de carga a la red eléctrica mientras se encuentra en funcionamiento, en caso de utilizar el dispositivo en varios lugares en una misma jornada.

Mas en : http://www.informador.com.mx/suplementos/2016/683617/6/consejos-para-aumentar-funcionamiento-de-laptops.htm

Descubren la más antigua grabación de música

WASHINGTON, ESTADOS UNIDOS (26/SEP/2016).- Investigadores acaban de restaurar la más antigua grabación conocida de música creada por ordenador, una chirriante interpretación del "God Save The King" concebida en 1951 en el laboratorio del genio británico Alan Turing.

La grabación dura dos minutos. En ella se suceden tres piezas, de agria y casi inquietante tonalidad: el propio himno británico, la canción para niños "Baa Baa Black Sheep", e "In The Mood", el gran éxito de jazz de Glenn Miller.

Sobre esta última pieza, una alegre presentadora comenta los fallos del ordenador, riéndose: "Desde luego la máquina no estaba de humor (en inglés: +not in the mood+)", en juego de palabras con el título de este gran éxito del género 'big band'.

Esta grabación excepcional había sido redescubierta en 2008 cuando la comunidad científica preparaba el 60 aniversario del nacimiento de "Baby", considerado como el primer sistema informático con programa integrado.

Acaba de ser restaurado por Jack Copeland, profesor de la Universidad de Canterbury (UC) de Christchurch (Nueva Zelanda) y por el compositor Jason Long.

La historia de esta grabación 'antepasada' de todas las músicas electrónicas está íntimamente vinculada a los primeros pasos de la informática y a las investigaciones de la Universidad de Manchester y de su científico más célebre, el matemático Alan Turing (1912-1954).

Un simple 'bravo'

Años después de haber contribuido a descifrar en la Segunda Guerra Mundial los códigos nazis producidos por la máquina Enigma, Alan Turing prosiguió en Manchester sus investigaciones pioneras en las máquinas Mark 1 y Mark 2, herederas de "Baby".

"El trabajo de Alan Turing a fines de los años 1940 para transformar el ordenador en instrumento de música fue bastante ignorado", relatan  Copeland y Long en un blog en el sitio de la British Library.
Copeland, que dirige un fondo de archivos dedicado al matemático, explica que el ordenador del Computing Machine Laboratory de Manchester de Turing estaba programado para indicar mediante sonidos precisos los progresos de sus investigaciones.

"Turing no estaba tan interesado por la idea de programar el ordenador para interpretar piezas convencionales de música: utilizaba las notas para indicar lo que hacía el ordenador" relatan ambos investigadores.

Fue un joven profesor, Christopher Strachey (1916-1975), quien sería uno de los mayores informáticos del Reino Unido, quien se encargó de elaborar un programa informático musical, sobre la base del manual de utilización del ordenador de Turing.

En una entrevista en 1974 a una revista especializada, este pianista de talento relató esa noche de 1951 que dedicó a pasar  pacientemente a esta enorme máquina, que ocupaba casi toda la parte baja del laboratorio, el programa que había escrito.

"A la mañana siguiente, para nuestra gran sorpresa, el ordenador expectoró ruidosamente el himno nacional", relata Strachey.

"Turing, sin abandonar su habitual sobriedad, se limitó a musitar un lacónico +bravo+", añade.
65 años de mano en mano

La grabación restaurada no es la ahora revelada, sino otra efectuada tiempo después por un equipo de la BBC que se desplazó a Manchester.

Copeland y Long ignoran quiénes fueron los programadores de las otras dos piezas grabadas por la BBC en el disco acetato de 12 pulgadas, que pasó de mano en mano desde hace 65 años.

"Después del éxito de Strachey, varios empleados empezaron a escribir programas musicales", explican.

Un importante trabajo de restauración fue necesario para que la grabación fuera audible, con el objetivo de escuchar "el verdadero sonido del ordenador".

Alan Turing murió en 1954 por envenenamiento de cianuro, dos años después de haber sido condenado a seguir, debido a su homosexualidad, un tratamiento de castración química. La tesis generalmente admitida del suicidio nunca fue formalmente probada.

Puedes escuchar la grabación, AQUÍ.
 
http://www.informador.com.mx/tecnologia/2016/683842/6/descubren-la-mas-antigua-grabacion-de-musica.htm

La máquina que hablaba a los usuarios

Se acabaron los tiempos de “el número que ha marcado no existe”, del “si llama para pagar sus recibos pulse uno”, del “prepárese para seguir 20 kilómetros por la carretera” y de otros epítomes del habla robótica que colonizan nuestro paisaje acústico y asustan a los niños. Las máquinas del futuro inmediato no nos van a hablar así, sino interrumpiendo con su respiración las frases igual que lo hacemos nosotros, entonando su melodía de acuerdo con el significado, representando la duda con vacilaciones silábicas y ruidos agramaticales. Las nuevas voces robóticas que ha desarrollado la rama de inteligencia artificial de Google (DeepMind, o WaveNet, según la creciente complicación taxonómica del gigante empresarial) suenan como nosotros cuando hablamos, como puedes leer en Materia. El usuario del teléfono, el ordenador o el GPS del coche sería incapaz, en una prueba a ciegas, de distinguir la voz del robot de la de una persona.

El milagro se debe a la tecnología computacional que ha revolucionado el campo de la inteligencia artificial en los últimos años. Se llama Deep learning, o aprendizaje profundo. El deep de Google DeepMind viene de ahí, y quizá sea una exageración filosófica (sugiere un pensamiento profundo, y no es eso, al menos de momento), pero también es una realidad tecnológica. Las redes neurales (programas inspirados en las neuronas biológicas) del deep learning se organizan en decenas o cientos de capas de abstracción progresiva, como nuestro cerebro, y deben a esa arquitectura su modelo interior del mundo, también como nuestro cerebro. Todavía no saben pensar, pero sí saben ya imitar la voz humana hasta hacer creer al usuario que está hablando con una persona.

Es una versión sonora del test de Turing. El matemático británico que concibió la inteligencia artificial, además de descifrar los códigos de los submarinos nazis, propuso que las máquinas alcanzarían la inteligencia cuando se hicieran pasar por un ser humano. Por supuesto, los generadores de voz de Google DeepMind no pasarían el test de Turing: no imitan el pensamiento humano, sino la forma de hablar. Hay mucha gente que cree que las máquinas nunca podrán pensar como nosotros. Si yo tuviera dinero no lo pondría en esa casilla, pero cada cual es libre de arruinarse como prefiera.

http://elpais.com/elpais/2016/09/23/ciencia/1474641823_322584.html

“En pocos años no podremos distinguir entre robots y humanos”

Hiroshi Ishiguro (Kyoto, 1963) es igual que su robot. O su robot es igual que él. El mismo pelo negro que enmarca el ceño fruncido y el rictus serio. Aun hecho de silicona, el Ishiguro androide también habla y contesta preguntas buscando las mismas expresiones que utilizaría un humano. Ese es el verdadero objetivo del Ishiguro real, el director del prestigioso Laboratorio de Robótica Inteligente de Japón: crear humanoides que puedan hacer las mismas funciones que un humano. "¿Qué hacemos con el resto de personas? ¿Ir al cine, hablar, ayudarnos? Pues eso mismo podremos hacer con un robot. Lo más importante es que serán alguien con quien mantener una conversación", asegura en una entrevista durante el congreso Congreso Español de Informática, en la sede del grupo de investigación BISITE de la Universidad de Salamanca.

El profesor de la Universidad de Osaka ha estado más de 15 años investigando sobre este tipo de máquina y ya no pone límites: ni de idioma, ni de tarea, ni siquiera de sentimientos. Ishiguro está convencido de que serán como nosotros, solo que mucho más listos. "Podrán aprender cualquier cosa porque son ordenadores, podrán acceder a su propia intranet y tendrán una memoria inigualable", asegura entusiasmado. Serán además, personalizables, todo dependerá de la programación que su propietario quiera darle. Vanguardista al extremo en inteligencia artificial, menosprecia la inteligencia de Siri o de cualquier asistente virtual por "su simple funcionamiento". Por supuesto que sus robots podrán hacer también ese tipo de funciones. En su utopía robótica todo es posible. 

http://tecnologia.elpais.com/tecnologia/2016/09/14/actualidad/1473844821_428161.html

Nace el primer código de conducta europeo de protección de datos

La iniciativa llega de la mano de los principales proveedores de infraestructuras de cloud computing en Europa.
Acaba de publicarse el primer código de conducta a nivel europeo referente a la protección de datos, una iniciativa que parte de los miembros de CISPE, una nueva coalición que incluye a proveedores de infraestructuras de cloud computing en Europa.
Las empresas que forman CISPE han anunciado la constitución de la asociación, así como su compromiso de adoptar un código de conducta relativo a la protección de datos, de forma que sus clientes puedan identificar con facilidad si el tratamiento de los datos personales que realizan sus proveedores se adapta a sus necesidades de confidencialidad y seguridad.
Los servicios que sean adecuados a la protección de datos podrán identificarse mediante la inclusión de una “marca de confianza”, que podrán emplear los proveedores que adopten este código de conducta.
Asimismo, los clientes tendrán la certeza de que los proveedores de infraestructura (IAAS) no procesarán sus datos personales en beneficio propio ni para revenderlos a terceros (explotación de datos de carácter personal o realización de perfiles para actividades de marketing o similares).
También establece que los proveedores certificados deben ofrecer a sus clientes la posibilidad de procesar y almacenar sus datos exclusivamente en los países de la UE o del EEE.
El Código de Conducta CISPE se anticipa a la entrada en vigor en mayo de 2018 del nuevo Reglamento General de Protección de Datos (RGPD) de la Unión Europea.
Alban Schmutz, vicepresidente de Desarrollo y Asuntos Públicos de OVH y presidente de CISPE, ha declarado que se trata del “primer código de conducta de este tipo con el que cuenta la industria”, y ha destacado que “gracias a él, los clientes tendrán la garantía de que sus datos permanecen siempre bajo su control y propiedad”.

Lea más en http://www.silicon.es/nace-primer-codigo-conducta-europeo-proteccion-datos-2319504#DTUStZXRUVfH5i5o.99

La realidad virtual se orienta hacia la empresa

La realidad aumentada aplicada a la empresa multiplicará por 10 su facturación en el próximo lustro. Su progresión está muy por encima de la pronosticada para los aplicaciones destinadas al consumidor.
Aunque recientemente hemos tenido buena muestra del interés que despiertan aplicaciones como Pokemon Go, las mayores expectativas de la realidad aumentada están en las aplicaciones para el entorno empresarial.
Según el estudio ‘Augmented Reality: Developer and Vendor Strategis 2016-2021’, elaborado por Juniper Research, los ingresos de aplicaciones de realidad aumentada para la empresa llegarán a 5.700 millones de dólares en 2021, multiplicando por diez la facturación actual, ya que se prevé que el ejercicio 2016 cierre con unas ventas de 515 millones.
El informe ha detectado un creciente interés de las empresas en tecnologías de realizada aumentada, gracias a las mejoras en el campo de visión y la latencia en los dispositivos HMD (Head-Mounted Display). Juniper Research considera que las versiones futuras de estas unidades –como HoloLens, por ejemplo- impulsarán los ingresos de contenido de realidad aumentada en el entorno corporativo, ya que las empresas prefieren sistemas HMD antes que aplicaciones en smartphones o tablets.
Según la investigación, el tipo de contenidos a medida que se dan en el ámbito de la realidad aumentada para la empresa -como las que prepara Daqri, en colaboración con Hyperloop y Siemens- hará que las aplicaciones no sean baratas. De hecho, Juniper considera que los precios elevados de los contenidos y la necesidad de adquirir hardware obstaculizará inicialmente la adopción. De este modo, sólo los early adopters implementarán esta tecnología en los próximos dos años.
El estudio también indica que los ingresos de la realidad aumentada corporativa a través de telefónos inteligentes y tablets permanecerán estables. Por el contrario, los desarrolladores de contenidos mediante dispositivos HMD encontrarán oportunidades de negocio muy interesantes a partir de 2020.
Sin embargo, la realidad aumentada destinada al gran público presenta unas perspectivas menos positivas. La alta penetración de los smartphones da acceso a una gran audiencia y a un canal de distribución directo e inmediato, pero no vale sólo con eso. Así, el informe recomienda a los desarrolladores enfocarse en la innovación continua, con el fin de sostener el interés de los usuarios. Centrándose en el caso de Pokemon Go, Sam Barker, autor de la investigación, señala cierto enfriamiento del usuario, tras la ‘fiebre’ que despertó inicialmente el juego. “Hay informes acerca de una caída en el uso de la aplicación. Esto significa que la mayoría de las aplicaciones de consumo tienen una oportunidad de ingresos limitados y son propensos a tener una corta vida útil, similar a la mayoría del ecosistema de aplicaciones”, afirma.
Además, hay que tener en cuenta que Pokemon Go es un caso aislado. Mientras que esta aplicación obtendrá alrededor de 500 millones de descargas en 2016, el resto de apps de videojuegos y entretenimiento que aprovechan la realidad aumentada apenas sumará 17 millones de descargas.
Por otro lado, el elevado coste de los dispositivos HMD y las dudas de los usuarios en la utilización pública de los mismos podría disuadir a los consumidores de comprar este tipo de aparatos a corto plazo.

Lea más en http://www.silicon.es/realidad-aumentada-empresa-2319479#Hm6I7SCDwDrRiLJ6.99

martes, 27 de septiembre de 2016

Mejoran el rendimiento de los servidores optimizando el acceso a memoria

Los procesadores multinúcleo -también conocidos como multicore- son la base tecnológica de cualquier equipo informático en la actualidad: PCs, tablets, teléfonos inteligentes o incluso smartwatchs integran en sus circuitos este tipo de arquitecturas hardware, fundamentalmente debido a su capacidad para ejecutar distintas tareas al mismo tiempo. En el caso de los servidores destinados a proveer servicios de Internet, simulaciones científicas o cálculos industriales, las potencialidades computacionales aumentan gracias a su mayor número de procesadores, una ventaja que permite a estas máquinas abordar tareas tan complejas como prestar servicio a numerosos usuarios al mismo tiempo o resolver simulaciones con grandes cantidades de datos; sin embargo, explotar esta potencialidad está lejos de ser sencillo.

Precisamente en los servidores, la disposición espacial de los elementos hardware juega un papel crucial. Una característica singular de este tipo de equipos es que el acceso al lugar donde se almacenan los datos -la memoria- es compartido, lo que significa que todos los procesadores y sus núcleos pueden acudir a ella en cualquier momento para obtener algún dato; no obstante, y dependiendo de cómo esté construido internamente el servidor, algunos de estos núcleos tendrán la capacidad de acceder a unas partes de la memoria más rápido que a otras. Estas pequeñas diferencias constituyen un campo de máximo interés científico, debido a su estrecha relación con una eventual pérdida de rendimiento en las prestaciones de los servidores; la importancia de su estudio radica en que actualmente la tecnología facilita año a año que los procesadores sean más rápidos, pero la velocidad de la memoria no crece al mismo ritmo, por lo que la diferencia de velocidad entre ambas es cada vez mayor.

Por lo general los programadores suelen tener en cuenta el número de núcleos, pero rara vez se preocupan del punto exacto de la memoria en el que se almacena la información. De esta manera, los Sistemas Operativos (como Windows, Linux, IOs o Android) acostumbran a repartir el trabajo dentro de un servidor en función de los núcleos disponibles, guardando los datos en memoria sin prestar demasiada atención a qué núcleo los va a utilizar. En la práctica, esta desatención de los tiempos de acceso a las distintas zonas de memoria puede significar una reducción muy significativa del rendimiento, incrementando así el tiempo invertido en la ejecución de los programas.

[Img #38813]

(Foto: CiTIUS)

Desde hace algún tiempo, los fabricantes de procesadores apuestan por incluir en sus diseños una herramienta conocida como contadores hardware, un tipo de registros concebidos para atestiguar lo que sucede en el interior del procesador en tiempo real; analizando su respuesta, el programador puede conocer el comportamiento de todas las aplicaciones que corren en su computador antes de que la ejecución haya finalizado, así como el de los diferentes threads o ‘hilos’ -pequeños fragmentos del programa, parcialmente independientes, que trabajan de manera conjunta pero que pueden ser aislados para su ejecución en diferentes núcleos-. Entre otras cosas, los contadores hardware ofrecen detalles sobre el acceso a los datos de memoria de estos hilos.

Valiéndose de esta información, el Grupo de Arquitectura de Computadores del CiTIUS (España) ha conseguido establecer nuevos modelos de rendimiento para su implementación en servidores, que esencialmente cuentan con dos ventajas principales: en primer lugar muestran a los programadores el comportamiento de su código, dándoles pistas sobre cómo mejorarlo; pero además, permiten establecer estrategias orientadas a la toma de decisiones durante la ejecución de un programa, con el objetivo de mejorar sus prestaciones. Para ello han desarrollado una herramienta de propósito específico, capaz de obtener la información generada por los contadores y mostrar los patrones de rendimiento, de forma muy cómoda para el usuario y con una baja influencia en el rendimiento del sistema.

Esta misma información ha servido también a los científicos para crear un sistema de migración de hilos, que mueve (‘migra’) automáticamente los threads entre los distintos núcleos de los procesadores, con el objetivo de encontrar la mejor ubicación para cada uno y optimizar su ejecución en tiempo real, de forma transparente al usuario. En esencia, este sistema de migración recoge constantemente información sobre el comportamiento de los hilos -una estrategia económica en términos de eficiencia, ya que el uso de contadores hardware ralentiza menos de un 2% la ejecución-, haciendo uso de ella con el propósito de identificar el núcleo que se encuentra en las mejores condiciones para ejecutar de la manera más eficaz los hilos (o los programas).

El trabajo, fruto de una tesis doctoral defendida recientemente en el CiTIUS por el investigador Oscar García, fue validado tras evaluar la precisión del sistema de migración de hilos con ensayos basados en los NAS Parallel Benchmarks, un banco de pruebas diseñado por ingenieros de la Agencia Espacial Estadounidense (NASA) para medir el rendimiento de los computadores.

Durante el proceso de validación se ejecutaron simultáneamente cuatro programas distintos en un servidor con idéntico número de procesadores (simulando un supuesto en el que cuatro usuarios se conectan a la vez al mismo servidor); así, se observó que si todos los programas se ejecutan en procesadores que acceden a sus datos de la manera más eficiente posible -es decir, leyendo siempre de la memoria más adecuada-, las cosas sencillamente funcionan bien, algo mejor de lo que habitualmente ocurre cuando el encargado del reparto es el sistema operativo. Por el contrario, tan pronto como los programas leen la memoria de la manera más lenta posible, el rendimiento cae estrepitosamente sin que el sistema operativo pudiera hacer nada para arreglarlo, ya que no utiliza información sobre el uso de la memoria.

Las sucesivas pruebas demostraron cómo en este tipo de situaciones el sistema de migración de hilos desarrollado en el CiTIUS conseguía mejorar el rendimiento hasta en un 70%. Unos resultados que, de ser integrados en el sistema operativo, podrían mejorar notablemente el rendimiento en servidores con múltiples usuarios. Como explican los autores del trabajo, «el salto cualitativo se apreciaría especialmente en casos como los servidores de Internet o en los dedicados a problemas de simulación científica o técnica, porque se trata de entornos donde se ejecutan programas con gran uso de memoria y un considerable número de hilos», concluyen. (Fuente: CiTIUS)

18 momentos para recordar los 18 años de Google

Existe una visión acerca del mundillo del emprendedor que suele aplaudir a toda empresa hecha a sí misma. Para ser un gigante hay que nacer, primero, en un garaje en Menlo Park. Es el paradigma por el que muchos sueñan. Google, al igual que otras tantas firmas tecnológicas como Microsoft o HP, surgió de tal forma.
Aunque técnicamente «Google» se constituyó como sociedad el 4 de septiembre de 1998, el aniversario se celebra cada 27 de este mes, fecha escogida por la compañía para que coincidiera con un récord de páginas indexadas. Sin embargo, siempre ha habido confusión al respecto ya que un 15 de septiembre de 1997 registraban el dominio google.com.
http://www.abc.es/tecnologia/top/abci-google-18-momentos-para-recordar-18-anos-201609261638_noticia.html

Alemania golpea a Facebook: le prohíbe obtener los datos de WhatsApp

Llegó el día W y la primera denuncia. Es el momento en el que los datos de WhatsApp pasan, de manera oficial, a pertenecer a Facebook, su empresa matriz. Y lo hace, en efecto, para potenciar aún más si cabe su herramienta publicitaria, su gran negocio. Hace justo un mes la popular aplicación de mensajería instantánea anunció, tras cuatro años sin hacerlo, un cambio importante en su política de uso que obligaba a sus usuarios a aceptar las nuevas condiciones que permiten la transferencia de información de un servicio al otro, una situación que Alemania pretende poner fin al considerar que no se ajusta a la normativa relativa a la protección de datos.
Porque la compañía norteamericana, para cubrirse las espaldas, dio la opción a sus más de mil millones de usuarios de desactivar la opción de compartir datos como el número de teléfono o la lista de contactos. Pero había un límite, treinta días. El tiempo ha concluido y los usuarios que decidieron postergar la aprobación de los términos de uso están condenados a no continuar perteneciendo a la comunidad, es decir, los usuarios están obligados a aceptar las condiciones.
Frente a esta situación, autoridades alemanas han prohibido este martes a Facebook «recopilar y registrar» los datos de los usuarios alemanes de WhatsApp, aplicación adquirida por la red social en 2014 en una de las mayores operaciones económicas en el ámbito de la tecnología. La Agencia de Protección de Datos de Hamburgo, ciudad donde se instaló la sede de la compañía, ha impuesto una orden administrativa para detener la recolección masiva de información personal así como borrar los datos ya enviados a la empresa a través de la aplicación, relatan en un comunicado.
Por ahora es la primera de esta naturaleza que se produce en el contexto europeo. Así, el Comisionado de Hamburgo para la Protección de Datos y Libertad de Información considera que esta está destinada a proteger los datos de unos 35 millones de usuarios de WhatsApp registrados en Alemania. «Tiene que ser su decisión [en referencia a los usuarios] si quieren que sus cuentas estén vinculadas con Facebook, que debería pedir una autorización previa. Esto no ha sucedido», señala el inspector del regulador alemán, Johannes Caspar.
El organismo alemán ha recordado que Facebook y WhatsApp se califican de «empresas independientes», por lo que la situación de recabar datos atenta contra los acuerdos firmados para la adquisición de la compañía de mensajería. «El hecho de que esto suceda ahora no es solo engañar a sus usuarios y al público, también constituye una infracción de la legislación nacional de protección de datos. Este intercambio es solo admisible si ambas empresas han establecido una base legal para hacerlo», sostiene Caspar. «Facebook, sin embargo, ni ha obtenido una aprobación previa de los usuarios de WhatsApp, ni tampoco cuenta con una base legal para los datos».
El gigante de internet ha salido al paso defendiendo que cumple con la ley de protección de datos de la Unión Europea. «Estamos abiertos a colaborar con las autoridades de Hamburgo para responder a sus preguntas y plantear cualquier preocupación», asegura un portavoz de la compañía en declaraciones a la agencia AFP.

Qué es YouTube mp3 y por qué las grandes discográficas lo están demandando

Marc Anthony, Britney Spears, Juan Gabriel, Jennifer López o Lady Gaga son varios de los artistas que figuran en la lista.

Algunas de sus canciones aparecen entre las más de 300 que los mayores sellos discográficos del mundo -Universal, Sony, Warner Bros y Capitol Records, entre otros- citaron en un tribunal de Los Ángeles (EE.UU.) como parte de una demanda contra un sitio de piratería en internet.

La plataforma en cuestión se llama YouTube MP3 (no tiene relación con YouTube) y es "la forma más fácil de servicios en línea para laconversión de videos amp3", dicen sus creadores.

El alemán solitario y el pirata que revolucionaron la música con el MP3 "No es necesario ningún tipo de registro, lo único que necesitas es la dirección URL de YouTube", explican en su web.

"No te preocupes, nuestro servicio es totalmente gratuito. Necesitamos aproximadamente 3 a 4 minutos por vídeo".

Aunque tal vez son ellos quienes tienen motivos ahora para preocuparse: se enfrentan a una demanda que incluye US$150.000 por cada supuesto caso de piratería.

Pero ¿qué es YouTube mp3, cómo funciona y por qué enfurece a las discográficas?

"El mayor infractor"

Los servidores de YouTube MP3 se encuentran en Alemania, aunque el sitio funciona en muchas partes del mundo -incluida América Latina- y está disponible en 25 idiomas.

http://www.bbc.com/mundo/noticias-37484354