domingo, 15 de mayo de 2011

analizando a Fondo LINUX UBUNTU 11.04 - UNITY


Ariel Torres |


Unity, la interfaz que dividió al mundo Linux



Aunque hay unos cuantos cambios importantes debajo del capot, la nueva versión de Ubuntu Linux, que salió en abril y por lo tanto lleva el número 11.04, impacta primero que nada por Unity, su nueva interfaz. Nueva y polémica, hay que decir.
Personalmente, la primera impresión que tuve fue muy negativa. Una barra de íconos a la izquierda (llamada Launcher ) que no me resultaba adecuada al tamaño de la pantalla de mi netbook y que, para colmo, no podía moverse a otras posiciones. Todo lo contrario del estilo Linux, donde uno puede cambiar lo que quiera cuando quiera.

Video: Probamos la nueva versión de Ubuntu Linux

Pero había dos refutaciones para esta primera impresión. Primero, que nadie me obliga a usar Unity (puedo elegir la interfaz clásica al iniciar la sesión) ni mucho menos Ubuntu es la única opción (puedo usar Debian, Mandriva, Fedora o cualquier otro), con lo que el espíritu de este sistema operativo de software libre sigue intacto; al revés que con Windows o Mac OS X, hay un número enorme de opciones.
Segundo, Mark Shuttleworth, fundador de Canonical, la empresa detrás de Ubuntu, es un sujeto muy inteligente como para haber apostado a Unity sin pensárselo dos veces y sin una buena razón.
Glass onion
Para entender qué es Unity hay que echarle un vistazo a la nada sencilla arquitectura de ventanas de Linux, que muy grosso modo está constituida por tres partes: el servidor X Window -o X a secas-, el entorno de Escritorio (Gnome o KDE, típicamente) y la interfaz gráfica propiamente dicha o shell .
En rigor, y como me explicaba Marcelo Fernández, miembro de la comunidad UbuntuAr: "El Proyecto Gnome desarrolla un sistema (también llamado Gnome) con muchos componentes o módulos de software interrelacionados, donde uno es el shell o, para decirlo de manera diferente, la capa de software que organiza las ventanas y muestra los elementos del Escritorio en sí (barra, menú, menús del sistema, íconos en el Escritorio, y así). Es una de las capas superiores de la cebolla, por ponerlo en forma más descriptiva".
Esta separación de componentes hace que Linux sea muy maleable en su aspecto. Por debajo siempre está X, pero es posible elegir entre Gnome o KDE, o echar mano de los muchos administradores de ventanas que existen para X, y hasta elegir entre diversos shell para un mismo entorno de Escritorio.
Sí, ya sé, es complicadito, pero así nos gusta, en general, a los que estamos en tecnología. Si es tuneable, está bueno.
Pero Ubuntu ha tenido la enorme virtud de simplificar esto para los usuarios que no tienen ganas ni tiempo de tunear todo. Por eso viene con un cierto entorno de Escritorio predeterminado, Gnome (www.gnome.org ). Sin preguntas raras. Sin jerga. Sin historias.
Oh, bueno, eso era así hasta la versión 11.04. Ahora Ubuntu sigue usando Gnome como entorno de Escritorio, pero la interfaz tradicional fue reemplazada por Unity, diseñada por Canonical.
Era hora
Unity es un paso atrás respecto de Gnome; al menos, respecto de Gnome 2, la versión por la que todavía puede optarse al iniciar sesión. Pero tengo la impresión de que es un paso atrás para luego avanzar a grandes zancadas, que es precisamente lo que Canonical le criticaba a Gnome, que estuviera estancado. Diré más. Gnome tuvo tiempo de sobra para crear una gran experiencia de usuario con su shell . Hace muchos años que lo uso, y nunca lo logró. Al principio era genial, pero su interfaz nunca dejó de ser rudimentaria, muchas veces lenta, inestable y con una estética errática; al principio aceptábamos estas limitaciones, pero tras más de una década (la primera versión pública es de 1999) hay que admitir que fracasaron en ofrecer una experiencia de usuario satisfactoria. No me asombra que la paciencia de Canonical se terminara por agotar.
Todavía tengo que probar Gnome 3, que incluye una serie de cambios profundos y de aspecto. Pero uno de los argumentos de Canonical para no incluirlo en el 11.04 es que está inmaduro. "En Natty (el nombre de fantasía de la versión 11.04) no se incluye el Gnome 3 porque el cambio de arquitectura estaba demasiado verde para sentirnos tranquilos de su estabilidad", me escribió John Lenton, Senior Engineering Manager de los servicios online de Canonical, que además me hizo saber que Unity no es algo nuevo, en rigor. "Canonical viene desarrollando el mismo concepto del shell hace mucho -escribió por mail-. Antes se llamaba Ubuntu Netbook Remix Launcher, y era el entorno predeterminado en la versión de Ubuntu para netbooks. Ahora el mismo concepto lleva el nombre de Unity porque es un entorno unificado, que toma cosas del Netbook Remix Launcher y del Escritorio tradicional".
Así que me parecen absurdas las críticas feroces que le han hecho a Unity, que ya ha hecho más que todas las otras interfaces (salvo una) por repensar, replantear, buscarle una vuelta de tuerca a la usabilidad y la experiencia de usuario.
Sólo Window Maker y Unity han hecho propuestas diferentes en este sentido; los demás, mal o bien, copian a Windows y a Mac. Se me dirá que no es posible innovar. Falso. En interfaces siempre se puede innovar. Y si no, miren una iPad.
Window Maker (que también usé durante muchos años en equipos con hardware limitado por su muy bajo uso de RAM) es un clon de la interfaz de NextSTEP. Despojada, sencilla, muy práctica y muy veloz. Lamentablemente, no era una idea original, la habían diseñado para las cajas negras de Steve Jobs muchos años atrás.
Hasta donde recuerdo, aunque podría haber alguna excepción, sólo Unity introdujo algo que no es ni la barra de tareas de Windows, ni el dock de Apple, ni el menú raíz de NextSTEP, ni ninguna de las otras cosas que han hecho antes Microsoft y Apple. Así que pienso darle a Unity una oportunidad.
Trucos y consejos
Eso hice cuando reinicié la netbook con un Ubuntu actualizado a la versión 11.04. De entrada no me gustó Unity, como dije, pero le iba a encontrar la vuelta para sacarlo bueno.
Antes que nada tenía que descubrir cómo reducir el tamaño de los íconos de la barra lateral. Luego de revisar un poco, sintiéndome algo desorientado, descubrí que Unity aparece como una extensión de Compiz , el gestor de composición de ventanas (vulgo: el software que dibuja el Escritorio y las ventanas) de Ubuntu. (Gnome usa otro, llamado Mutter .)
Así que hice clic en el ícono de Ubuntu arriba a la izquierda y se abrió la caja de búsqueda. En esto, Unity es igual a Windows 7. Escribí compiz y apareció lo que buscaba: el Administrador de Opciones CompizConfig . Le di un clic y luego elegí la categoría Escritorio en la columna de la izquierda, hice clic en Ubuntu Unity Plugin y encontré lo que necesitaba en la pestaña Experimental . Cambié el tamaño de los íconos moviendo el deslizador de Launcher icon size de 48 (el predeterminado) a 32 (el mínimo posible) y volví al Escritorio apretando dos veces Escape .
Ahora la barra se ajustaba mucho mejor a la altura de la pantalla de mi netbook. Hice lo mismo, sin embargo, también en una desktop con una pantalla de 22 pulgadas y alta resolución. Aunque al principio me había resistido, la verdad era que Unity había encontrado una forma limpia y clara de lanzar las aplicaciones más frecuentes sin apelar al dock ni al atiborrado menú Inicio .
En algún momento apreté la tecla de Windows (la que está entre Ctrl Alt ), que en Linux se llamaSuper , y aparecieron unos numeritos en los primeros diez íconos de la barra. Exacto, adivinó: combinando esa tecla con el número correspondiente arrancaba la aplicación o iba a mi carpeta personal y así. ¡Nada mal!
Me pasé un rato tratando de aceptar si realmente el menú de aplicaciones había desaparecido. Y sí, ya no estaba por ningún lado. ¿Y sabe qué? Es una buena noticia.
Porque, ¿cuántas veces usábamos ese dichoso menú? Pocas. En general, y lo mismo que hacemos en Windows, terminamos poniendo un lanzador o una barra de herramientas con los programas que empleamos más a menudo. Así que no voy a extrañar el superpoblado menú Inicio. En su lugar, como dije, hay, arriba y a la izquierda, un botón con el logo de Ubuntu que abre un buscador, al que Canonical llama Dash . Como dije, es la misma idea que el buscador de Windows 7, aunque a mi juicio es más claro y anda más rápido y reúne las tareas principales. Todavía no es perfecto, los íconos están un poco grandes y demás, pero insisto con que es una versión 1.0. Y resuelve.
Por ejemplo, escribí 3D y casi de inmediato apareció el Blender, que era mi target. Puse write y apareció el procesador de palabras de LibreOffice . Sin embargo, falló cuando intenté conspreadsheet hoja de cálculo .
Pero ahí descubrí que el menú Inicio de ninguna manera ha desaparecido, sólo está un poco escondido, y el resultado es de nuevo eficiente. ¿Dónde fue a parar Inicio? Hay que abrir el Dash(tecla Super ) y hacer clic en Más aplicaciones . A la derecha de la caja de búsqueda hay una etiqueta que dice Todas las aplicaciones . Un clic ahí y se despliega el viejo, no muy querido y engorroso menú Inicio.
¿Por qué digo que la decisión es buena? Porque algo que usamos muy de vez en cuando es mejor que esté a un par de clics, en lugar de andar siempre en primer plano. El Dash , además, muestra automáticamente las aplicaciones más usadas, de modo que esta nueva forma de llegar hasta los programas me pareció muy buena. Debe mejorar, pero, como adelanté, es un avance luego de diez años de hacer lo mismo que Windows y Mac. Por otro lado, los atajos de teclado que había creado para arrancar programas en las versiones anteriores fueron respetados. Excepto cuatro: los que usaba para cambiar de Escritorio. Y ahora los iba a necesitar más que nunca.
Atajos
Como Unity reemplaza uno de los componentes de Gnome puede entrar en conflicto con los otros. Eso hizo que TweetDeck se llevara a las piñas, cuando no estaba maximizado, con la barra superior de Unity. Al final, tuve que optar por usar la aplicación siempre maximizada. Sin barra de tareas y con el Launcher escondiéndose automáticamente, estaba perdiendo un poco de conciencia de entorno, así que decidí usar sólo una aplicación por cada Escritorio. Claro que mi tecla para cambiar al Escritorio 1, 2, 3, 4 o 5 era la combinación de Super con el número correspondiente.
De entrada me hice bastante lío arrancando el Firefox en lugar de ir al Escritorio 2 o abriendo mi carpeta personal en lugar del volver al Escritorio 1. Bueno, todo era cuestión de cambiar las teclas que usaba para ir a cada Escritorio o, como decidí hacer para mantener los mismos atajos en todas mis máquinas con y sin Linux, modificar la tecla para acceder a las aplicaciones del lanzador de Unity.
En un par de días, dedicándole un rato y no mucho más, me había habituado a la nueva interfaz. La pantalla se mantiene más libre sin la presencia de una barra de tareas o un dock, y el Launchercombina las funciones de ambos componentes de una manera consistente.
Sí, todavía se pelea con algunos componentes de Gnome y la barra superior puede quedarse como colgada mostrando el nombre de una aplicación que ya minimizamos. Además, en varias ocasiones tuve que cerrar programas por medio de Alt+F4 porque no estaba disponible ningún botón o menú para hacerlo con el mouse.
Pero luego de un arranque nada promisorio, la nueva cara de Ubuntu me resulta mejor que la clásica. Los bugs se irán corrigiendo con el tiempo. Le doy la bienvenida y tengo la clara impresión de que es una buena noticia para los usuarios no expertos. Y a fin de cuentas de eso se trata Ubuntu.
@arieltorres
diario la NACION Argentina

miércoles, 11 de mayo de 2011

La primera computadora cumple 70 años


El aparatoso artefacto, construido en 1941, pesaba más de una tonelada y tardaba tres segundos en hacer una multiplicación

La primera computadora cumple 70 años
 / Universidad Politécnica de Madrid
BERLIN (DPA).- Tenía el tamaño de un gran armario de pared, pesaba más de una tonelada y tardaba tres segundos en hacer una multiplicación: el aparatoso artefacto se parecía poco a las modernas computadoras ultrarrápidas y de bolsillo, pero fue hace 70 años el primer eslabón de una cadena que desembocó en ellas.
El ingeniero alemán Konrad Zuse (1910-1995) la presentó en un taller de Berlín un 12 de mayo de 1941, ante unos pocos científicos y en medio de una indiferencia generalizada.
La "Z3" multiplicaba, dividía y obtenía raíces cuadradas. Fue la primera computadora programable y también la primera que funcionaba con un sistema binario. Su capacidad de almacenamiento era de 64 palabras.
"No hubo ninguna repercusión, ni prensa ni eco mundial: el tema del momento era la guerra", explica ahora Horst Zuse, hijo mayor del visionario alemán.
Por eso, Zuse decidió esperar a la posguerra y en 1946 fundó la primera compañía de computadoras, con la que construyó la "Z4", primer modelo en ser comercializado.
Pero el éxito económico no le llegó jamás: la competencia dentro de Alemania y en Estados Unidos aumentó rápidamente y la endeudada compañía Zuse terminó siendo adquirida por Siemens en los años '60.
La creación del pionero de la computación pudo haber quedado en el olvido de no ser por Horst, hoy de 65 años, que siguió los pasos de su padre y estudió electrónica e ingeniería informática.
A mediados del año pasado, el segundo Zuse presentó una reconstrucción perfecta de la "Z3", cuyo original había quedado destruido el 21 de diciembre de 1943 durante un bombardeo.
La nueva versión exigió mucho tiempo... y dinero: "Uno podría haberlo utilizado para comprarse un bonito descapotable", comenta Zuse sin ofrecer cifras concretas.
Desde hace meses, el ingeniero lleva la reconstrucción a museos y exposiciones en todo Alemania. "El objetivo científico es mostrar a la gente cómo funciona una computadora", explica.
Y es que la "Z3" es más que una reliquia: "Mi padre desarrolló una arquitectura computacional nueva y revolucionaria que sigue siendo un estándar hasta hoy", asegura. Según Zuse, las computadoras ultramodernas siguen basándose en la idea de su padre.
La próxima oportunidad para ver de primera mano a la copia del enorme "bisabuelo" de la computación será a partir del 1º de julio en Paderborn, en el centro de Alemania. Allí será exhibida en el museo de Heinz Nixdorf, otro pionero de la computación.

Después estaría la computadora ENIAC en 1947 norteamericana pero un poco mas grande,
ocupaba todo un sótano de la Universidad y consumía 200.000 W de electricidad.
Un Comentario muy interesante que quise poner para aprender un poco de la historia tecnológica.
  • neurodocMe parece que habría que investigar un poco más, ya que desde mucho antes (193?) existía una máquina creada en Alemania llamada HOLERIT. Dicha empresa fué comprada por IBM segundos antes que estallara la guerra y las computadoras fabricadas por ambas empresas tuvieron la responsabilidad de manejar TODA la logística del IIIer Reich (incluído el sistema ferroviario y los campos de exterminio). La paradoja es que esas máquinas funcionaban con tarjetas perforadas que SOLO se fabricaban en los EEUU. Para llegar a manos de sus usuarios, no sólo sorteaban el embargo Aliado contra Alemania, sino que el dinero proveniente de estas operaciones comerciales era transferido a cuentas suizas, desde donde volvia a USA! En fin.... una pequeña parte de la historia negra de IBM.


Diario La Nacion - Argentina

lunes, 9 de mayo de 2011

Donde estas?, donde estoy?, el Dueño de la INFORMACIÓN DOMINARA AL MUNDO


Ariel Torres 
La compu

La privacidad empieza cuando tenemos control

Por Ariel Torres

Apple admitió oficialmente que es un error de software (o bug , como se dice en la jerga) lo que causó que los iPhones y iPads hicieran un backup en la computadora de la información sobre los lugares donde el teléfono, y se supone que por lo tanto nosotros, habían estado. Este casi escándalo, que se conoció el 20 de abril en la conferencia Where 2.0 de O'Reilly y que recibió el nombre de LocationGate , fue tratado desde muy numerosas ópticas, involucró también los teléfonos con Android, es decir a Google, y puso en tela de juicio cualquier cosa que posea a la vez GPS y Wi-Fi. Esto, en un contexto en el que el diputado alemán Malte Spitz había descubierto que la telefónica tenía guardados seis meses de registros de las ubicaciones de su celular, con los que el legislador trazó un mapa muy perturbador de sus recorridos en ese período (más información en http://blogs.lanacion.com.ar/movilandia/noticias/telefonos-geolocalizacion-y-privacidad-o-tu-telefono-y-la-telefonica-saben-muy-bien-en-que-andas/ ). Ahí, claramente, no se trató de ningún bug. Tampoco es un error de Google el colocarme avisos contextuales en Gmail y en los resultados de las búsquedas.
Para el caso, Apple tampoco dijo que fuese un error el que registrara nuestras ubicaciones, de forma anónima, sino que la falla estaba en que esa información quedara guardada en el backup de iTunes .
El LocationGate se analizó desde casi todo punto de vista imaginable, pero a mi juicio lo único que realmente importa quedó, salvo en algún caso aislado, ensombrecido por un debate bizantino. Y lo malo de empezar mal una discusión es que después es muy difícil enderezarla. Las respuestas de Apple, Google y hasta Microsoft discurrieron, así, por el pantanoso lodazal de las teorías conspirativas y por el críptico terreno del tecnicismo. Ni en el uno ni en el otro echa sus raíces el problema.
El problema es que, de nuevo, las empresas no dijeron claramente lo que estaban haciendo con nuestros datos. Por favor, alguien que me diga que no sabía que los celulares pueden ubicarnos en el mapa, de acuerdo con las antenas a las que se conectan, y que los GPS con Wi-Fi o 3G pueden transmitir esta información adonde se le ocurra al fabricante. Alguien que me diga, además, que no sabía que apagando el teléfono uno se volvía invisible a la geolocalización. Oh, ¿alguien no lo sabía?
Entonces era obligación de Apple el informarlo con letra grande y lenguaje claro durante la instalación de iTunes o el arranque del iPhone. Por lenguaje claro me refiero a un cartel infranqueable que diga: Recuerde que su iPhone registrará sus ubicaciones y las enviará a Apple. Si no desea ser localizado, apáguelo .
El lenguaje de las advertencias tiende a ser mucho más coercitivo que educacional. Si uno no acepta los términos y condiciones , es cortésmente invitado a no instalar el producto, sin opciones. La verdad es muy otra. Puedo aceptar los términos y condiciones , que incluyen que el teléfono enviará información sobre mi ubicación a la compañía, pero también puedo apagarlo para que el equipo no me rastree. No es o blanco o negro. Hay muchos tonos de gris.
¿Efectivo o tarjeta?
El problema nunca fue ni va a ser que las empresas sepan qué hacemos, qué compramos, a quién llamamos, dónde estamos. Esto no es nuevo. El problema es cuando el botón para apagar esta transmisión de datos es muy difícil de encontrar, o cuando dicha transmisión está oculta en un farragoso texto de términos y condiciones que prácticamente nadie lee: peor aun, todos saben que nadie lee los términos y condiciones, y nada se hace para hacerlos más amenos o claros.
Por eso la comparación que siempre se hace entre los datos que Google o Apple recolectan y los que tienen la tarjeta de crédito o la empresa de telefonía fija es improcedente. Sólo la primera parte del razonamiento es cierta: la tarjeta de crédito sabe qué compro, cuándo y dónde. La empresa de telefonía fija (y la de celulares, para el caso) sabe a quién llamo, cuándo y durante cuánto tiempo hablamos. Pero todos sabemos que basta pagar en efectivo o llamar de un teléfono público para cancelar este registro. Es de conocimiento público.
Ahora, ¿cuántos de los miles de millones de usuarios de celulares saben que las celdas registran sus pasos? ¿Cuántos saben que apagando el teléfono se vuelven invisibles (al menos, por ahora)? ¿Cuántos usuarios de Apple sabían de la existencia de consolidated.db , la base de datos de nuestras ubicaciones que el teléfono almacena? ¿Cuántos sabían para qué usa esta base de datos Apple?
No, de ninguna manera son lo mismo las tarjetas de crédito o la telefonía tradicional que estas nuevas tecnologías.
Se dijo, cuándo no, que el LocationGate constituía una invasión a la privacidad, o por lo menos una filtración inexcusable, y es verdad. Pero, de nuevo, ése no es el problema, porque la privacidad es moneda de cambio desde hace décadas. La cuestión es qué obtenemos a cambio de ceder nuestros datos personales. ¿Estoy dispuesto a confiarle a una empresa los lugares en los que estuve, con fecha y hora, durante, digamos, un año? Sí, claro, con dos condiciones. Primero, ¿qué me dan a cambio? Segundo, ¿cómo hago para volverme invisible?
Desde luego, es importante que la empresa proteja, como Apple asegura que lo hace, bugs aparte, esa información. Pero no es algo que podamos controlar. Además, cada semana una nueva batea de millones de datos privados se filtra de empresas que han sido objeto de un ataque informático. Así que, ¿acaso importa si Apple, Google o la telefónica me aseguran que mis datos están totalmente a salvo? A los fines de esta discusión no importa en absoluto. Deben hacerlo, por ley, pero ingresar este argumento es desviar la discusión, que no es ni sobre la privacidad ni sobre la seguridad.

Video: Intel reinventa el cerebro electrónico; por Ariel Torres
La dimensión desconocida
Quien tiene que controlar cuándo y cómo ceder datos privados es la persona, no la compañía de turno. Apple quiere geolocalizarnos más rápido sumando los Wi-Fi conocidos al GPS. También se usa esta información para las apps que necesitan saber dónde estamos. Fantástico (y lógico, por otro lado). Google le garantiza a sus clientes que los avisos llegarán a las personas supuestamente interesadas y para eso debe saber qué buscamos y qué ponemos en nuestros mails. A cambio, nos ofrece un servicio de búsquedas excepcional, mail sin cargo, mapas y demás. Buenísimo. Pero nada de todo esto es importante en lo más mínimo.
Lo que importa es el control. ¿Por qué? Porque sin control podemos perder parte de nuestra privacidad sin darnos cuenta en absoluto. Ni Apple ni ninguna otra compañía saben dónde estamos (bugs aparte); en todo caso saben dónde está un teléfono en particular. Bastaría dejarlo en un cajón y nos volvemos invisibles; digo esto para quienes sospechan que con apagarlo no alcanza.
Control, esa es la clave. No podríamos sentirnos demasiado seguros si las cerraduras de nuestras casas se abrieran en los momentos menos pensados, por sí mismas, debido a un error de diseño (un bug). Ni si el indicador de velocidad del auto tuviera un error de más o menos 20 Km/h; nos lloverían las multas tanto por exceso como por defecto.
Dicho más simple: antes de enredarnos en si la privacidad ha desaparecido, si está bien que los adolescentes (y no pocos adultos, para qué negarlo) se expongan en Facebook, si hay oscuras agencias sin nombre ni rostro que nos siguen adonde vamos y oyen lo que hablamos y ven lo que hacemos con fines no menos lóbregos, primero tenemos que saber cómo controlar la información que cedemos, cuándo y dónde.
Nunca fue demasiado inteligente el sostener principios férreos, inamovibles, eternos, por la sencilla razón de que no hay nada ni férreo, ni inamovible, ni eterno en la naturaleza y en las sociedades. La flexibilidad y la capacidad de adaptación son tan importantes como nuestros valores más esenciales. Pero sostener principios axiomáticos en una época de cambio global como la que vivimos es suicida. Sí, creo que la privacidad es un derecho adquirido después de siglos de esfuerzo y miseria, pero también creo que si alguien quiere renunciar a controlar los límites de su privacidad tiene todo el derecho de hacerlo. Eso sí, para renunciar al control primero tenemos que tenerlo.
¿Qué es el control hoy? Conocimiento.
Hay dos dramas silenciosos en estos tiempos de euforia digital. Por un lado, la inmensa cantidad de gente que no tiene acceso a no digamos una computadora e Internet, sino los servicios básicos, una brecha que aterra y avergüenza. Por otro, que ninguna de las tecnologías que usamos se basa en fenómenos obvios, en hechos de conocimiento público. Borramos la papelera de reciclaje y nada se borra en realidad. Nuestro celular no es un teléfono, es una computadora y un receptor GPS. En una llave de memoria que cabe en el bolsillo entra el texto de una pila de libros de la altura del Obelisco. Nuestra PC hace en un segundo una cantidad de cuentas que a nosotros nos demandaría, a mano, 1500 años. Satélites a 20.000 kilómetros de altura nos dicen "Doble a la derecha en la próxima intersección". Un cerebro electrónico del tamaño de una estampilla posee más de 1000 millones de componentes, los transistores, todos más pequeños que un glóbulo rojo.
(Una estampilla es un pequeño rectángulo de papel que se pega en las cartas y otros envíos postales. Pero supongo que todos saben eso.)
Esta dislocación causa una catástrofe en nuestra posibilidad de controlar porque quiebra el sentido común por la base. Ninguna de estas tecnologías tiene nada que ver con lo que conocemos (salvo que seamos expertos) ni con las magnitudes y leyes de nuestra realidad cotidiana. El salto entre la moneda, que fue inventada hace milenios, y la tarjeta de crédito es mínimo comparado con el abismo entre la tarjeta de crédito y las transacciones electrónicas. Por eso a Sony le robaron hace dos semanas 10 millones de números de tarjetas de crédito de sus clientes, porque el plástico ya no importa; sólo importan los números.
No es fácil adaptar la vista a la nueva iluminación digital de la realidad, una realidad con frecuencia insustancial, inmaterial, casi fantasmagórica, no es sencillo acostumbrarse a pensar en términos de GPS, números, cerebros electrónicos y un Everest de datos en la palma de la mano. Por eso, lo que hizo mal Apple no fue aprovechar los Wi-Fi conocidos para ubicarnos más rápido que con GPS, sino creer que el resto de nosotros está obligado a entender de buenas a primeras cómo funcionan estas tecnologías. No sólo no es así, sino que no puede ser así. Entrar en el mundo digital es también entrar en otra dimensión.

Coincido plenamente con Ariel

jueves, 5 de mayo de 2011

Una Nueva Evolucion en las Computadoras, la NANOTECNOLOGIA

Intel revoluciona las computadoras con un nano chip en 3D

Los procesadores vistos en un microscopio
El diseño plano tradicional en los chips (a la izquierda) y la nueva tecnología "Tri-Gate" de Intel (a la derecha). La compañía cree que los transistores en 3D operan en forma más eficiente.
Intel develó su nueva generación de tecnología de microprocesadores, con el nombre en código "Ivy Bridge".
Los chips -de pronta aparición en el mercado- serán los primeros en utilizar un proceso de fabricación de 22 nanometros (nm) que les permitirá tener más transistores que el actual sistema de 32nm.
Para poner su tamaño en dimensión hay que saber que un nanometro equivale a una mil millonésima parte de un metro. Un cabello humano tiene un ancho cercado a 60.000nm.
Intel dice que también usará nuevos transitores 3D Tri-Gate que consumen menos energía.
Se cree que su competencia -AMD e IBM- también están planeando diseños similares.

"Tri-Gate"

Transistor plano
Los transistores de los microprocesadores tradicionales son planos al pasar por la compuerta de encendido.
El anuncio marca un significativo paso hacia adelante en la industria comercial de procesadores, que constantemente busca construir más transistores dentro de los chips de silicio que se usan en las computadoras.
Desde hace tiempo se preveía la llegada de compuertas de 22nm, aunque la naturaleza exacta de la tecnología de Intel se había mantenido en secreto hasta ahora.
La compañía espera iniciar su producción comercial a finales de este año.
Transistor en 3D
El sistema Tri-Gate cuenta con aletas en 3D. Intel dice que su mayor superficie mejora su desempeño.
Kaizad Mistry, gerente del programa de 22nm de Intel, aseguró que la llegada de los transistores Tri-Gate cambiará los productos de consumo.
"Le permitirá al mercado mayor eficiencia energética, lo que representa mejor desempeño de la batería y más duración de ésta manteniendo su desempeño", dijo Mistry.
En el diseño de los microprocesadores, un canal conductor pasa a través de una compuerta de encendido que se abre o cierra cambiando la energía de 0 a 1 (apagado o encendido).
Hasta ahora esos canales -que se encuentran en la lámina de silicio- han sido planos. El sistema Tri-Gate de Intel reemplaza esos canales con aletas en 3D.
Mistry explicó que esa superficie extra los hace que tengan mejor conducción y trabajen mejor con menos energía.
Dan Hutcheson, analista de la industria de semiconductores de la empresa VLSI Research, le dijo a la BBC que el nuevo proceso afianzará el dominio de Intel en el mercado.
"Los deja en una posición muy poderosa", aseguró.
Hutcheson añadió que la innovación en la arquitectura en 3D no sólo beneficiará a los procesadores de computadoras de escritorio de la empresa, sino también a los dispositivos móviles.
"Esto hará que su línea de productos Atom compita mucho más con ARM", aseguró. ARM es una empresa británica que es líder en el desarrollo de chips para productos móviles.

Ley de Moore

Chip de Intel
Éste es un chip de pruebas de Intel de 22nm.
El diseño de Ivy Bridge permite alojar aproximadamente el doble de transistores que existe en los chips de 32nm.
Dicha mejoría es consistente con la ley de Moore, la observación hecha por el cofundador de Intel, Gordon Moore, de que la densidad de los chips se duplicará cada dos años.
Sin embargo, Intel y otros fabricantes de chips, se están acercando cada vez más a límites físicos que les impedirían continuar sus avances.
El próximo proceso de fabricación de chips será 14nm seguido de 11nm. Los átomos miden aproximadamente 0.5 nm de ancho.
Kaizad Mistry cree que la actual tasa de crecimiento continuará por algún tiempo. "El propio Gordon Moore dijo que ningún exponencial es para siempre, pero a él le gustaría que retrasáramos esa norma por el mayor tiempo posible".
En la actualidad Intel controla el 80% del mercado de ventas globales de microprocesadores, según la empresa de análisis IDC. Su rival más cercano Advanced Micro Devices (AMD) tiene 19% del mercado.