Todo el contenido de este blog está registrado en el R.P.I. por Safe Creative

martes, 30 de noviembre de 2010

EEUU supo que Pekín estaba detrás de los ciberataques a Google


ELMUNDO.es | Madrid

Google acusó al Gobierno de China el pasado mes de enero de una serie de ataques contra sus sistemas sucedidos en diciembre, lo que causó una tensión sin precedentes entre una multinacional estadounidense y el régimen de Pekín. En el ataque se llegaron a poner en peligro los sistemas de claves del gigante de Internet.
Ahora, uno de los cables filtrados por Wikileaks confirma que la embajada de EEUU en Pekín acusó directamente al 'Politburó' chino de estos y otros 'ciberataques'.
En un primer resumen proporcionado por el diario The New York Times puede leerse en un resumen que varios de los documentos tratan sobre 'ciberataques' a escala global, y aseguran que las más altas autoridades chinas dirigieron el ataque contra los sistemas del gigante de Internet en el país asiático.
De esta manera, los ataques 'pirata' a Google fue "parte de una campaña coordinada de sabotaje informático que fue llevada a cabo por agentes del gobierno, expertos de seguridad privada y otras personas al margen contratados por el Gobierno chino".
Asimismo, los mensajes demuestran cómo la embajada sabía que los chinos "entraron en ordenadores del Gobierno estadounidense y de aliados occidentales, en el del Dalai Lama (un hecho que ya se sabía desde 2009) y en los de empresas estadounidenses desde 2002". Toda una confirmación de las sospechas estadounidenses hacia la implicación directa del Gobierno chino en la 'ciberguerra fría'.
Cuando Google protestó y amenazó con abandonar sus actividades en China tras dichos ataques (para lo cual argumentó también estar en contra de la férrea censura del país), el Gobierno de EEUU respaldó su punto de vista a pesar de las insistentes negativas del régimen de Pekín, que se esforzó en desmentir que estuviese detrás de ningún ciberataque.
No obstante, Google terminó renovando su licencia para seguir operando en China y sigue abierto en el país.

[Descarga del día] U-Customizer, crea tu propia distribución “Ubuntu”

Por Diego Fraga el 29 de Noviembre de 2010 en Software Libre.

El nivel de personalización de Linux y de cualquiera de sus derivados es extrema. Desde el entorno de escritorio hasta la forma en la que se mueven las ventanas o la tipografía utilizada por el sistema. Las modificaciones pueden ser en muchos niveles y hasta en el particionado del disco podemos hacer maravillas pero, más en profundidad… también tenemos opciones.
U-Customizer nos propone crear nuestra propia versión de Ubuntu. Este programa permite crear una versión de Ubuntu personalizada para poder instalar directamente en nuestros PC para evitar que, posteriormente, tengamos que añadir programas, paquetes o configuraciones.
La herramienta nos propone partir de Ubuntu Mini Remix, una versión reducida de Ubuntu que contiene todo lo necesario para funcionar pero ningún añadido y así, utilizando U-Customizer por ejemplo, podamos configurar nuestro equipo desde lo más básico.

Las posibilidades son muy grandes, desde editar la lista de fuentes, cambiar el entorno de escritorio, instalar aplicaciones por defecto, el nombre de “nuestra distro”… hasta utilizar un asistente para la creación.
Desde luego nada mejor que formatear un equipo para tenerlo fresco y sin fallos. Utilizando ésta utilidad podemos crearnos nuestra propia ISO para instalar nuestra versión favorita de Linux con todo lo necesario… con el mínimo esfuerzo! Gracias por la información Ubuntu-Tips.
Información básica:
§                  Plataforma: Linux
§                  Licencia: Open Source
§                  Precio: Gratuito
§                  Enlace de descarga: U-Customizer

Manifiesto por una Red Neutral

Por Eduardo Arcos el 30 de Noviembre de 2010 en Destacadas, Internet


Los ciudadanos y las empresas usuarias de Internet adheridas a este texto manifestamos:
1.               Que Internet es una Red Neutral por diseño, desde su creación hasta su actual implementación, en la que la información fluye de manera libre, sin discriminación alguna en función de origen, destino, protocolo o contenido.
2.               Que las empresas, emprendedores y usuarios de Internet han podido crear servicios y productos en esa Red Neutral sin necesidad de autorizaciones ni acuerdos previos, dando lugar a una barrera de entrada prácticamente inexistente que ha permitido la explosión creativa, de innovación y de servicios que define el estado de la red actual.
3.               Que todos los usuarios, emprendedores y empresas de Internet han podido definir y ofrecer sus servicios en condiciones de igualdad llevando el concepto de la libre competencia hasta extremos nunca antes conocidos.
4.               Que Internet es el vehículo de libre expresión, libre información y desarrollo social más importante con el que cuentan ciudadanos y empresas. Su naturaleza no debe ser puesta en riesgo bajo ningún concepto.
5.               Que para posibilitar esa Red Neutral las operadoras deben transportar paquetes de datos de manera neutral sin erigirse en “aduaneros” del tráfico y sin favorecer o perjudicar a unos contenidos por encima de otros.
6.               Que la gestión del tráfico en situaciones puntuales y excepcionales de saturación de las redes debe acometerse de forma transparente, de acuerdo a criterios homogéneos de interés público y no discriminatorios ni comerciales.
7.               Que dicha restricción excepcional del tráfico por parte de las operadoras no puede convertirse en una alternativa sostenida a la inversión en redes.
8.               Que dicha Red Neutral se ve amenazada por operadoras interesadas en llegar a acuerdos comerciales por los que se privilegie o degrade el contenido según su relación comercial con la operadora.
9.               Que algunos operadores del mercado quieren “redefinir” la Red Neutral para manejarla de acuerdo con sus intereses, y esa pretensión debe ser evitada; la definición de las reglas fundamentales del funcionamiento de Internet debe basarse en el interés de quienes la usan, no de quienes la proveen.
10.           Que la respuesta ante esta amenaza para la red no puede ser la inacción: no hacer nada equivale a permitir que intereses privados puedan de facto llevar a cabo prácticas que afectan a las libertades fundamentales de los ciudadanos y la capacidad de las empresas para competir en igualdad de condiciones.
11.           Que es preciso y urgente instar al Gobierno a proteger de manera clara e inequívoca la Red Neutral, con el fin de proteger el valor de Internet de cara al desarrollo de una economía más productiva, moderna, eficiente y libre de injerencias e intromisiones indebidas. Para ello es preciso que cualquier moción que se apruebe vincule de manera indisoluble la definición de Red Neutral en el contenido de la futura ley que se promueve, y no condicione su aplicación a cuestiones que poco tienen que ver con ésta.
La Red Neutral es un concepto claro y definido en el ámbito académico, donde no suscita debate: los ciudadanos y las empresas tienen derecho a que el tráfico de datos recibido o generado no sea manipulado, tergiversado, impedido, desviado, priorizado o retrasado en función del tipo de contenido, del protocolo o aplicación utilizado, del origen o destino de la comunicación ni de cualquier otra consideración ajena a la de su propia voluntad. Ese tráfico se tratará como una comunicación privada y exclusivamente bajo mandato judicial podrá ser espiado, trazado, archivado o analizado en su contenido, como correspondencia privada que es en realidad.
Europa, y España en particular, se encuentran en medio de una crisis económica tan importante que obligará al cambio radical de su modelo productivo, y a un mejor aprovechamiento de la creatividad de sus ciudadanos. La Red Neutral es crucial a la hora de preservar un ecosistema que favorezca la competencia e innovación para la creación de los innumerables productos y servicios que quedan por inventar y descubrir. La capacidad de trabajar en red, de manera colaborativa, y en mercados conectados, afectará a todos los sectores y todas las empresas de nuestro país, lo que convierte a Internet en un factor clave actual y futuro en nuestro desarrollo económico y social, determinando en gran medida el nivel de competitividad del país. De ahí nuestra profunda preocupación por la preservación de la Red Neutral. Por eso instamos con urgencia al Gobierno español a ser proactivo en el contexto europeo y a legislar de manera clara e inequívoca en ese sentido.
Si te sientes representado por este manifiesto te pedimos encarecidamente que lo copies y lo publiques en tu blog o que lo menciones en tu cuenta de Twitter o en Facebook usando el hashtag #redneutral. ¡Muchas gracias

Un hacker asume la autoría del ataque a WikiLeaks

Por JJ Velasco el 29 de Noviembre de 2010 en Internet.

Ayer era el día en el que WikiLeaks filtró 250.000 documentos que han hecho tambalear a la diplomacia estadounidense, si bien el plan no salió como era previsto. Tal y como comentábamos ayer, inicialmente todos los documentos iban a ser publicados a través del propio portal, pero esté quedó fuera de servicio, por un ataque DDoS, así que tuvieron que activar un plan de contingencia y enviar la información a diversos medios de comunicación. El sitio estuvo fuera de servicio durante bastantes horas y, anoche, a todos nos venía a la mente la misma pregunta: ¿quién estaba detrás del ataque?.
En este caso, o al menos eso parece, las teorías conspirativas erraron al asociar la indisponibilidad de la página a un ataque de alguna agencia gubernamental norteamericana o de sus servicios de inteligencia, parece que el asunto es algo más simple y más alejado de una novela de Tom Clancy. Un hacker norteamericano, con cierto espíritu patriota, ha asumido la autoría del ataque alegando que lo realizó como protesta contra Wikileaks “por intentar poner en peligro las vidas de nuestras tropas, ‘otros bienes’ y las relaciones exteriores”.
“The Jester”, que es como se hace llamar este hacker, es bastante conocido por atacar sitios web de temática islamista y que luego anuncia a través de Twitter con la expresión “Tango Down”. Según parece, este activista tan “patriota” es un ex-soldado norteamericano que ha decidido luchar en su particular guerra contra sitios que inciten a los jóvenes musulmanes a la violencia, muestren información o materiales relacionados con la jihad, tanto en Estados Unidos como en Europa.
WikiLeaks ni confirma ni desmiente, si bien, The Jester ya anunció en septiembre que WikiLeaks estaba dentro de sus objetivos y la CNN, tras consultar a unos expertos en seguridad, ha anunciado que es probable que este personaje esté detrás del ataque de ayer.
Una página de seguridad, InfoSEC, que pudo realizarle una entrevista a The Jester, tiene publicado un vídeo en el que se puede observar cómo este activista realiza sus ataques, la verdad es que no tiene desperdicio:
Ver Video demostrativo del ataque: http://vimeo.com/17268609

WikiLeaks va a estar toda esta semana, como mínimo, en el ojo del huracán. Tendrá sus detractores y, lógicamente, no está haciendo muchos amigos en el seno del gobierno estadounidense (cuyo congreso quiere declararlos terroristas), pero esta apuesta por la transparencia es digna de alabanza.
De todas formas, volviendo al hilo original, los expertos en seguridad afirman que todo apunta a que The Jester esté detrás del ataque de ayer, ¿seguro?, ¿no será simple oportunismo?, ¿no es mucho trabajo para un sólo hacker?. Seguramente, en los próximos días nuevos datos arrojen más luz sobre este tema.
Vía: ALT1040

Modifica a tu gusto Windows Media Center con Media Center Studio

Alexliam

Hoy día la tecnología ha simplificado tanto las cosas que no es de extrañar que muchos de nosotros tengamos montado un media center en nuestra casa. Entre todas las alternativas que hay en el mercado Windows Media Center es una de las más usadas, ya que viene integrada en los sistemas operativos de Microsoft.
Sin embargo uno de los factores que hacen que Windows Media Center sea visto con recelo por algunos usuarios es que no dispone de muchas opciones de personalización. Sin embargo gracias a Media Center Studio podremos olvidarnos de esto y hacer de Windows Media Center una herramienta a nuestro gusto.
Lo primero a tener en cuenta es que Media Center Studio no modifica las el funcionamiento de Windows Media Center, sino que se limita a dejarnos modificar la interfaz de la aplicación, que no es poco. Podremos crear, exportar e importar, themes que se aplicarán directamente sobre Windows Media Center y convertirlo en una herramienta de lo más personalizada.
Media Center Studio nos deja modificar la interfaz de Windows Media Center hasta tal punto que es posible que los usuarios menos experimentados se pierdan un poco entre tantas opciones. Aún así creo que esto es positivo ya que con un poco de maña podremos modificar a nuestro gusto hasta el último rincón de la aplicación.
Además de crear themes o plantillas otra de las características de Media Center Studio es que nos permite modificar también el menú de inicio de Windows Media Center, pudiendo eliminar esas opciones que no solemos usar o cambiando de sitio algunos botones para hacerlo lo más cómodo posible.
Como ya digo la aplicación de primeras puede abrumar un poco, pero si usáis Windows Media Center os recomiendo que le echéis un ojo porque en menos de cinco minutos ya os habréis quedado con el tema y estaréis creando unas plantillas bastante aceptables. Además lo interesante es que podremos exportarlas y compartirlas con amigos, y a poco que crezca la comunidad de Media Cener Studio no es de extrañar que aparezcan plantillas creadas por gente con bastante mañana.
Media Center Studio funciona con Windows Vista y Windows 7 y es completamente gratuita.
Vía | Addictive Tips
Descarga | Media Center Studio

Estados Unidos cierra más de 70 webs de intercambio de archivos

ELMUNDO.es | Madrid

El departamento de inmigración y aduanas estadounidense (ICE) cerró más de 70 páginas de intercambio de archivos. Así, al tratar de acceder a las mismas aparecía un mensaje que avisaba de que el sitio había sido embargado por el ICE.
Los sitios bloqueados hospedaban copias no autorizadas de música o películas o permitían a los usuarios buscarlas en otros sitios, según informa el New York Times. Según TorrentFreak, algunos de los sitios también estaban conectados con redes de falsificaciones de bienes físicos.
Desde este portal también destacan que algunos de los sitios cerrados simplemente ofrecían un servicio de búsqueda similar al de Google, pero que no proporcionaban 'torrents' ni mostraban material protegido por 'copyright' a menos que se utilizase el buscador. En estas circunstancias, explican, "acusar de infringir la ley se convierte en una especie de 'campo de minas'".
Además, el dueño de uno de estos dominios, Torrent-Finder, explicaba a TorrentFreak que su sitio había sido cerrado "sin recibir quejas previas o notificaciones de ningún tribunal". Este portal, por el momento está disponible a través de la dirección torrent-finder.info.
Una portavoz del ICE explicó que ejecutaron una orden de embargo contra varios dominios, pero no quiso dar más datos porque se trataba de una operación todavía en curso.

Los consumidores alemanes denuncian a Facebook por el uso de datos privados

Efe | Berlín

La Federación de Consumidores de Alemania -VZBV, en sus siglas en alemán-, denunció a la red social Facebook ante la Audiencia de Berlín por violar los derechos de los consumidores al utilizar datos privados de los usuarios.
La parte principal de la denuncia presentada por la asociación defensora de los consumidores se refiere a la opción 'buscador de amigos', en la que se pueden encontrar personas a través de las direcciones de correo electrónico, según explicó el portavoz de la asociación, Gerd Billen.
Según alegan, cuando un usuario introduce la dirección de correo electrónico de alguien al que quiere buscar, la red social registra automáticamente dicha dirección y envía un e-mail con una invitación, sin contar con el consentimiento de los receptores.
La Federación de Consumidores señaló, además, que la red social, que cuenta con millones de usuarios en Alemania, había ignorado con anterioridad una advertencia realizada por la VZBV.
Dado que la plataforma de Internet no reaccionó, "nos vimos obligados a hacer cumplir las reglas de protección del consumidor y de privacidad a través de la justicia", señaló Billen.

Diez herramientas con las que mejorar la estructura de tu web

Por JJ Velasco el 29 de Noviembre de 2010 en Web 2.0.
Muchas veces cuando abordamos un proyecto de desarrollo web prestamos mucha atención a las funcionalidades y servicios que queremos ofrecer desde nuestro portal, el gestor de contenidos a utilizar (Drupal, Joomla!, WordPress, Plone, etc) o el diseño. Hay tres conceptos que, aunque independientes, están relacionados entre sí y pueden determinar el éxito, o el fracaso, de un sitio web: accesibilidad, usabilidad y la arquitectura de la información. Un mal diseño, una web poco usable y una mala distribución de la información, pueden dar al traste con una web en la que hayamos invertido mucho tiempo y esfuerzo (personal o económico) en el apartado tecnológico.
Antes de empezar, reflexionemos sobre lo que es la usabilidad y qué es la arquitectura de la información. Entendemos por usabilidad a la facilidad con la que el usuario de una web puede alcanzar un objetivo concreto, es decir, la facilidad con la que alcanza lo que está buscando (una información, una compra en una tienda on line, etc). Cuando un usuario no encuentra lo que busca o le es complicado, éste abandona nuestra web y se va a buscar otro sitio más sencillo. Por tanto, debemos tener en cuenta que la información esté clara, algo a lo que ayudará tanto el diseño como los mensajes que pongamos en nuestra web (y no los típicos mensajes de “error código 0x8584”).
Por otro lado, la arquitectura de la información se encarga del estudio, análisis, organización y estructura de la información en una web. Es decir, dónde situar la información en una web para que ésta esté accesible a los usuarios y la encuentren de una manera rápida y sencilla. Por tanto, está estrechamente relacionada con la usabilidad del sitio, puesto que su objetivo principal es el de facilitar a los usuarios la comprensión y asimilación de la información.
En definitiva, el diseño de nuestro sitio web, no sólo va a responder a cuestiones estéticas o de imagen, también tendrá que velar por la usabilidad y la arquitectura de la información para satisfacer a nuestros usuarios.
Para echarnos una mano en el proceso de diseño de nuestra web, o para optimizar éste, podemos recurrir a algunas herramientas que nos pueden ayudar a ver si el diseño de nuestra web funciona o si podría funcionar mejor si restructurásemos alguna parte:
§                  Click Heat es una herramienta muy interesante. Se parece a una herramienta que vimos hace tiempo, Seevolution, es decir, nos sirve para realizar “mapas de calor” en los que visualizar las zonas de la web en las que los usuarios hacen click, pero en ese caso, se nos presenta como una utilidad para instalar en nuestro propio servidor. La instalación es muy sencilla y, entre otras cosas, la herramienta permite superponer datos (en base a la ventana temporal de observación) o filtrar por el tipo de navegador cliente. Me parece un aliado básico para evaluar, por ejemplo, la disposición de los enlaces en una página web. Desde la web de la aplicación podemos echar un vistazo a la demo, por si queremos probar antes de instalarla.
§                  ClickTale es una herramienta bastante completa, que aunque tiene opción de pago, incluye una versión gratuita que nos puede ser útil si la combinamos con alguna otra herramienta. Entre sus funciones encontramos la posibilidad de generar mapas de calor, no sólo de los clicks, si no también de los movimientos del ratón de los usuarios sobre la web, detectar las zonas en la que se detienen nuestros usuarios, el scroll que realizan los usuarios o visualizar un vídeo simulando la navegación típica que realizan nuestros usuarios. Toda esta información no es útil sólo desde el punto de vista del diseño o la usabilidad, también lo es desde el punto de vista del marketing. La versión gratuita está limitada a 400 capturas mensuales, pero puede ser una ayuda interesante.

§                  Optimal Workshop es un conjunto de herramientas que nos ayudan a organizar la información de nuestra web. La herramienta también es de pago pero incluye un acceso gratuito y, nos permite, realizar tres tipos de pruebas: ordenar tarjetas (la clásica técnica de organizar la información en una web), realizar cuestionarios para evaluar la estructura de la información (pidiendo que los usuarios busquen cosas) y evaluar diseños (viendo, por ejemplo, dónde se hace click primero). Estos tres tipos de pruebas se realizan sin necesidad de tener implementado nuestro sitio web, de hecho, la información sobre nuestra web podremos importarla desde una hoja de cálculo.
§                  Attention Wizard puede ser útil para validar un diseño antes de implementarlo. Con esta herramienta podremos subir una imagen con el boceto de nuestra web y comprobar cuáles son las zonas que captarían la atención de nuestros usuarios, algo así como una simulación del comportamiento del ojo humano. La herramienta también es de pago, pero en su versión gratuita permite subir una imagen al día, por que nos puede sacar del apuro si necesitamos hacer este tipo de análisis y no podemos permitirnos el gasto.

§                  SMT -Simple Mouse Tracking es una herramienta, que se distribuye bajo creative commons y, por tanto, es libre, que también realiza grabaciones de los movimientos que realizan los usuarios por nuestra página web.
Otras herramientas que también nos pueden ser útiles son:
§                  Para validar diseños: Photofluid (para visualizar nuestra web en diferentes navegadores y tamaños) o Feng-GUI (para realizar mapas de calor de nuestros diseños o páginas web).
§                  Para sondear a nuestros usuarios: Five Second Test para realizar encuestas sobre nuestra web, Kampyle, para que nuestros usuarios valoren ciertas zonas de la web, o 4Q que es totalmente gratuita.
En definitiva, con este tipo de herramientas podemos darle una vuelta de tuerca a nuestra web y mejorar la distribución de la información y la usabilidad de la misma.

lunes, 29 de noviembre de 2010

SIM integrado para el internet de los objetos

Estas tarjetas llevarán la conexión a la Red a más dispositivos como cámaras, eReaders o reproductores mp3

Archivo

La GSM Association ha anunciado la formación de un comando para dirigir el desarrollo de una tecnología SIM que puede activar por control remoto. El comando incluye expertos técnicos de las principales compañías móviles AT&T, China Mobile, Deutsche Telekom, France Telecom Orange, KT, NTT DOCOMO, SK Telecom, Telecom Italia, Telefónica, Verizon Wireless y Vodafone que trabajaran para desarrollar el proyecto.
El objetivo de esta SIM es llevar la conexión de Internet a más dispositivos como cámaras, eReaders, smart meters y reproductores mp3- en otras palabras, es un paso importante hacia la creación del Internet de los Objetos, una visión del futuro de Internet donde casi todos los objetos están hechos para la Web.
Detalles del SIM integrado
Como las tarjetas SIM de los teléfonos móviles, la SIM integrada que se encuentra ahora en desarrollo, conectará los dispositivos a una red inalámbrica GSM (GSM es un sistema de comunicación inalámbrica que conecta más de tres mil millones de dispositivos a las redes inalámbricas) Sin embargo a diferencia de la SIM estándar, los chips de la SIM integrada no se podrán sacar del dispositivo y ésta se activará por control remoto. Estas tarjetas SIM integradas se podrán poner en móviles, tablets y cualquier otro dispositivo.
¿Cuánto cuesta? ¿Se pueden mantener las redes?
Por supuesto, las SIM integradas exigirán alguna tasa. Pero esperemos que las compañías móviles paren a los consumidores de poca monta con múltiples planes de datos -uno para tu móvil, otro para tu tablet y otro para el dispositivo de seguridad para usb 3G/4G de tu portátil. En su lugar el nacimiento de Internet de los objetos podría estimular el lanzamiento de planes de datos para todos los dispositivos, desde marcos digitales para tus fotografías hasta los smartphones, cámaras y iPads.
Se necesita tecnología como esta, dada la mediocre presentación de WiMax y la mala cobertura de Wi-Fi en cafés, restaurante y aeropuertos. No hemos visto mucho progreso en el Wi-Fi público. Incluso hay casos en los que las empresas han aumentado las tasas de uso de las redes que proporcionan.
El problema con esta tecnología es que la respuesta de los dispositivos que están conectados puede sobrecargar las redes inalámbricas, hay problemas con la gran cantidad de smartphones y datos que utilizan estos dispositivos. Las compañías móviles han empezado a rechazar planes de datos ilimitados y en su lugar optan por servidores “por capas” donde el usuario puede pagar por una determinada cantidad de datos al mes. Esto dificulta el uso de redes de datos por parte de consumidores finales, que temen llegar más allá de su límite, lo que resultará en facturas más altas.
Esta mentalidad va en contra de cualquier filosofía de lo que debe ser el Internet de los Objetos. En este futuro conectado se supone que todo se puede hacer en la web y no te paras a pensar sobre la cantidad de bits que se transfieren de un dispositivo a la nube y vuelven. Si te gusta hacer fotos, tu cámara puede subirlas automáticamente a la Web. Tu casa estará equipada con smartmeters que hacen un seguimiento online de la energía que gastas. “Las SIM integradas pueden proporcionar funciones adicionales para las aplicaciones e-Wallet y NFC” explica Rob Conway CEO de GSMA, tecnología inalámbrica para el intercambio de datos. El soporte de NBC para la próxima versión del sistema operativo de Android está por llegar al igual que los iPhones. Varias compañías telefónicas estadounidenses han anunciado recientemente el lanzamiento Isis, un servicio de pago para los móviles con NFC.
Pero en ninguno de estos casos el usuario final se debe preocupar por cuanto les va a costar la cantidad de datos que utilicen. Si estas compañías quieren realmente permitir el Internet de los objetos y la tecnología NFC a través del uso de SIM integradas, necesitarán replantearse los planes de datos. Los planes modernos deberían englobar todos los dispositivos que lleguen próximamente a Internet a la vez que generan suficientes ingresos para soportar actualizaciones de la infraestructura de red.
Según la GSMA, empezaremos a utilizar las SIM integradas en los dispositivos a partir de 2012. Esperemos que las redes estén preparadas.

PC y tabletas, parientes muy lejanos


El pasado miércoles se confirmaba que Intel ha comenzado a fabricar en masa la nueva hornada de plataformas Oak Trail, una evolución de sus chipstes para equipos ultraportátiles y de bajo coste que en esta ocasión podría suponer el primer intento de Intel de entrar en el mercado de las tabletas, donde ahora tiene una presencia casi testimonial.
Los procesadores de Intel han estado detrás de los TabletPC y los malogrados UMPC, pero eso son historias para olvidar. Cuando Apple presentó el iPad en febrero apostó por un procesador tipo ARM –similar al que utilizan la gran mayoría de smartphones del mercado- con un software evolucionado también del mundo de la telefonía. El éxito de la tableta ha llevado a otros fabricantes a adoptar una estrategia parecida. Salvando contadas excepciones las grandes apuestas de tabletas de 2011, como el Playbook de RIM, e incluso los modelos de tabletas Android que ya están en el mercado, como el Galaxy TAB, utilizan procesadores de arquitectura ARM y software que tiene más en común con el que usa un teléfono que con el que hay en un PC.
Por hacer una generalización: a todos los efectos una tableta, hoy en día, es un móvil de grandes dimensiones, no un PC compacto y táctil. 
Oak Trail aspira a cambiar esa máxima y conquistar parte del terreno perdido gracias a un menor consumo y una mayor potencia. No llega a ser igual de eficiente que un ARM pero a cambio ofrece una capacidad de proceso mayor y la ventaja de poder ejecutar un sistema operativo similar al de un ordenador sobremesa o portátil, como Windows 7, aunque desde la compañía de Santa Clara también tratarán de promocionar MeeGo.  Mi opinión, sinceramente, es que Windows 7 no aporta tanto al mundo táctil y acaba siendo más un carga que una bendición pero para algunos usuarios puede ser un requisito usar ciertos programas que no pueden adaptarse fácilmente a Android o iOS. 
El problema de Intel es que desarrolladores y fabricantes están más interesados en el modelo actual y no parece que esta otra arquitectura esté estancada. Para 2011 las tabletas con ARM –tanto futuras versiones de iPad como los desarrollos de RIM, Samsung, Acer… - ganarán también procesadores de doble núcleo y de mayor eficiencia, que  no sólo se traduce en una mayor autonomía sino también en un peso y dimensiones menores.
Será interesante ver si Intel consigue asaltar esta nueva categoría de producto, que ahora parece más prometedor que los netbooks. La telefonía móvil se le escapó de las manos pero la fuerza de Atom en el mercado de la informática tradicional podría jugar a su favor. 
El Dell Inspiron Duo, que estará en el mercado americano durante las próximas semanas, no utiliza Oak Trail pero es un ejemplo de la forma que podría tomar esta transición. Es un netbook con una pantalla táctil que queda en el exterior al cerrar la tapa gracias a un ingenioso mecanismo de bisagra. Cuando el equipo está cerrado se usa como una tableta pero al abrirlo se puede teclear como en un netbook. El precio de venta es de 549 dólares y cuenta con procesador Atom de doble núcleo a 1,5 Ghz, 2 Gb de RAM y 320 GB de disco duro. La batería, eso sí, sólo aguanta cuatro horas de uso continuo.
Su éxito o fracaso dependerá en buena medida de las expectativas del público ante estos productos híbridos. Muchas de las quejas que oigo sobre las tabletas hace referencia a la falta de elementos que son típicos en un portátil –¡no tiene USB! ¡no tiene teclado!- pero mi experiencia es que una tableta es un producto muy diferente a un portátil y que por tanto se usa de otra forma. No requiere las mismas prestaciones. 

Lecciones de diez años de tecnología

El crítico de tecnología de «The New York Times» analiza cómo ha evolucionado este cambiante sector en la última década

ABC / MADRID

David Pogue, crítico de tecnología de «The New York Times», ha publicado un interesante artículo con las que, en su opinión, son las lecciones que ha aprendido de diez años de tecnología. En un tono divertido y cercano, Pogue construye su relato sobre cómo ha cambiado este sector desde que publicara su primera columna hace una década. Entonces, asegura, no había DTV, Blu-ray, GPS, WiFi, Gmail, YouTube, iPod, iPhone, Kindle, Xbox, Wii, Facebook, Twitter, Android, la música online, las películas en streaming y así sucesivamente.

Sus percepciones de esta intensa década de cambios tecnológicos son:
1. Aludiendo a la teoría de Roger Fidler (la mediamorfosis plantea que ninguna tecnología hace desaparecer a su predecesora), Pogue argumenta que nada reemplaza a lo anterior, de manera que las nuevas tecnologías no sustituyen a las que existían, sino que las expanden, las mejoran... La televisión, dice, nunca mató a la radio.
2. Más tarde o temprano, todo será bajo demanda, a la carta. Los últimos diez años han traído un cambio radical en el almacenamiento de los datos a través de las descargas digitales. La música, los programas de televisión, las fotos y ahora los libros y periódicos, todo está ahí. Buscamos el acceso rápido y fácil, asegura Pogue.
3. Los gadgets determinan la autoestima de la gente, hacen de su uso un estilo de vida, algo muy personal. Se sienten ofendidos, señala, si haces una crítica de un aparato, porque se sienten atacados en su decisión de haberlo comprado. «Por extensión, es una crítica hacia ellos», subraya.
4. Todo el mundo lee con sus lentes. Algunas de las guerras culturales en este país están profundamente enraizadas. El control de las armas, el aborto... Pero los sentimientos son igual de fuertes cuando se habla de tecnología. Hoy no puedes usar la palabra «Apple», «Microsoft» o «Google» en una frase sin apelar a las emociones. «Cuando revisé el iPad, intenté hacer algo radical: escribí dos versiones diferentes en la misma columna, una negativa y otra positiva. Mi idea era que pudieras ver esta tableta de forma muy diferente dependiendo de tu conocimiento técnico».
5. No es tan difícil hablar de los ganadores a los perdedores. Lo realmente interesante de este trabajo, asegura, es tropezar con un producto alternativo y conseguir la atracción del público. «Hablar a los ganadores de los perdedores no suele ser muy dificil, cualquiera puede hacerlo y algunos de los fracasos fueron colosales», dice para a continuación enumerar algunos como el reloj inalámbrico de Microsoft lanzado en 2003 que permitía mostrar citas y mensajes a un precio de 10 dólares al mes.
6. Algunos conceptos de tiempo «puede que nunca lleguen». Las mismas ideas revolucionarias nos bombardean año tras año. Sin embargo, aunque se repitan estos argumentos no todos se van a materializar. «Nadie quiere videoteléfonos, cuando hablamos por teléfomo no queremos estar presentables (...) Los jóvenes no quieren "comunicadores" que no envíen mensajes de textos, la gente no quiere navegar por internet en la televisión...», describe Pogue.
7. «Olvídate de siempre, nada dura un año». De los miles de productos que «hemos revisado en diez años, sólo unos pocos siguen en el mercado». Todo el mundo sabe que la tecnología evoluciona y el truco está en aceptar la obsolescencia del gadget en el momento en que se compra.
8. Nadie puede seguir el ritmo. «Dondequiera que voy me encuentro con personas que expresan la misma reacción por parte del consumidor: las cosas vienen demasiado rápidas». Es imposible, a su juicio, mantenerse al día en tendencias, en saber qué comprar para evitar la sensación de haberse quedado atrás. Nunca ha habido un período de mayor cambio tecnológico.

Enlace articulo original: http://www.abc.es/20101127/tecnologia/diez-lecciones-tecnologias-201011261651.html

Wikileaks bajo un ataque DDoS el día en que filtra información secreta de EE.UU.

Por JJ Velasco el 28 de Noviembre de 2010 en Internet.

Justo cuando WikiLeaks se preparaba para publicar un nuevo lote de documentos clasificados, la web ha anunciado en su perfil en Twitter que el servicio se encuentra bajo un ataque de denegación de servicio (DDoS), por lo que la web no está disponible. En esta ocasión, la filtración se centraba en documentos y comunicaciones diplomáticas del gobierno norteamericano y sus aliados, unos 250.000 documentos, algo que iba a incomodar no sólo al Departamento de Estado de Estados Unidos sino también a más de un gobierno occidental.

Lógicamente, ante esta contigencia, WikiLeaks ha reaccionado con un plan alternativo que también ha publicado por Twitter y en el que indica que ha enviado copia de los documentos a los principales diarios impresos: El País (que ya lo ha publicado), The Guardian, Le Monde, el New York Times o Speigel.
Quién está detrás de este ataque DDoS es todo un misterio, ¿algún servicio de inteligencia o el propio WikiLeaks para tener aún más notoriedad?, en cualquier caso, no es casual que el día en el que van a salir a la luz documentos que pueden abochornar a los servicios diplomáticos de medio mundo, el portal acabe fuera de servicio por un ataque.
¿Y cuál es el contenido de los documentos? Comunicaciones diplomáticas relativas a los puntos más conflictivos del planeta y datos que ponen al descubierto la política exterior norteamericana y su relación con el resto de países, ya que en los documentos se muestra cómo los funcionarios del cuerpo diplomático estadounidense hablan de jefes de estado de otros países (aliados o no) sin apenas medir las palabras usadas. Las expresiones utilizadas para catalogar a líderes como Sarkozy o Putin, van a dinamitar las relaciones de Estados Unidos con sus aliados y va a suponer un enorme salto hacia atrás en muchos proyectos.
Parte del contenido se había filtrado a través de Twitter, a través de una copia de Der Spiegel que se había filtrado antes de tiempo y que, por ejemplo, no dejaba en buen lugar a la Canciller alemana, Angela Merkel.
Posiblemente estemos ante el mayor escándalo diplomático de la historia, tanto, que es posible que cambie los hábitos y técnicas que utilizan los cuerpos diplomáticos de todo el mundo y deje alguna que otra cicatriz en las relaciones entre los países.

Facebook pronto podría ofrecer videochat integrado con Skype

Yirá Albornoz

Hace poco vimos como la nueva versión de Skype sorprendía con una profunda integración con Facebook, permitiéndonos actualizar el estado, o usar el chat de Facebook desde Skype, o acceder al News Feed, y a la lista de números de teléfono de nuestros amigos de Facebook para así poder llamarlos desde el servicio de Voz IP.
Ahora, un mes después, se empieza a rumorear sobre la posibilidad de que Facebook agregue videochat en su web (al estilo Gmail), pero integrado con Skype. Esta especulación surge luego de que se encontrara un objeto “VideoChat” en el código fuente de la web de Facebook. Por si fuera poco, este objeto contiene varias propiedades que hacen referencia a Skype, y a IDs de usuarios de Skype.
Probablemente, lo que quieren los de Zuckerber es implementar un sistema donde los contactos de Facebook puedan tener videoconferencias entre sí, pero a la vez puedan comunicarse de esta forma con los contactos de Skype. También es probable que se pueda acceder a estas videoconferencias indistintamente desde la web de Facebook, o desde el cliente de Skype.
Como bien apuntan en Mashable, la integración con Skype sería algo muy en línea de lo que se ha propuesto Facebook con su nuevo sistema de mensajería: integrar en un mismo lugar las diversas plataformas que los usuarios ocupan para comunicarse.

domingo, 28 de noviembre de 2010

Así son los tablets de doble pantalla

Acer acaba de lanzar el último, con dos pantallas táctiles de 14 pulgadas

El fabricante informático Acer ha presentado un dispositivo semejante a un tablet o a un portátil, aunque ni una ni otra cosa. Iconia Touchbook, con dos pantallas táctiles de 14 pulgadas, no es el único en su especie. Otras compañías han venido presentando modelos similares, pero ¿cuál es su verdadera utilidad y su capacidad para introducirse en el mercado?
Acer
El Iconia Touchbook
Acer ha presentado sus propuestas de movilidad. El fabricante, uno de los más importantes en volumen de ventas e ingresos a nivel mundial en cuanto a ordenadores se refiere, pretende entrar de lleno en el sector móvil. Ha presentado tres tablets, uno basado en el sistema de Microsoft y otros dos en Android, que llegarán en febrero y abril, además de un smartphone con el SO de Google y un híbrido entre portátil y tableta.
Se trata del Iconia Touchbook, un dispositivo con dos pantallas de 14 pulgadas. En el lugar donde debería haber un teclado hay un monitor LCD táctil, de manera que el usuario interactúa con el hardware de la misma forma que lo haría con un tablet. El sistema operativo elegido para el producto es Windows 7 Home Premium, un detalle importante el del software, que deberá funcionar correcta e intuitivamente para optimizar el uso.
¿Un sucedáneo de portátil o de un tablet?
Acer no es el único que ha presentado un modelo de este tipo. Otros dispositivos similares ya han salido a la luz aunque casi ninguno ha salido ya al mercado. El Toshiba Libretto, por ejemplo, dispone de una pantalla más cercana a la de un tablet, de 7 pulgadas. Su sistema operativo es Windows 7 y el uso al que parece destinado se encamina hacia las prestaciones que podrían ofrecer el iPad y sus sucesores.
En cambio, la posibilidad de hacer que surja un teclado en el monitor LCD inferior acerca a estos dispositivos a una funcionalidad más propia de un portátil. El dispositivo Kno, en cambio, opta directamente por dos pantallas de 14 pulgadas, adoptando un modelo más afín con el servicio que ofrece un ordenador, en este caso basado en Linux.
Una de las ventajas que tiene la doble pantalla es que se pueden visualizar simultáneamente webs que en un monitor más reducido no se ven. Un manejo más intuitivo del software también debería ser implementado para garantizar alguna posibilidad de éxito a estos productos. Por ello es importante la sensibilidad táctil y la operatividad de la plataforma.
Quitarle el puesto al iPad o quedarse en nada
El debate de si todos estos lanzamientos deberían ir orientados a competir con portátiles o con tablets no está claro. Si se tiene en cuenta el tamaño de la pantalla los de 14 pulgadas entrarían en confrontación con los primeros y los de 7 con las tabletas al estilo del omnipresente iPad. La coreana Mintpass parece haber sufrido este conflicto de lealtades en sus propias carnes al debatirse entre implementar Windows 7 o Android en su dispositivo de 7 pulgadas.
En este punto cabe destacar que ha habido dudas de que Windows 7 esté preparado para soportar correctamente funciones táctiles (aunque Android 2.2 tampoco está del todo optimizado para tabletas). De hecho Microsoft descartó su proyecto Courier, de doble pantalla, presumiblemente advirtiendo su inviabilidad. Hoy por hoy no parece que competir con los portátiles sea una opción.

Enlace articulo original: http://www.abc.es/20101124/tecnologia/rww-tablets-doble-pantalla-201011241831.html