Ricardo Carreón`, máximo responsable de Intel en Latinoamérica, expone un gran futuro para la región
Ricardo Carreón, a cargo de Intel Latinoamérica, vive por estos días en Brasil, el país que ostenta el más alto índice de avance IT en la región, un número que se traduce en la venta de PC, pero no es la única, aclara. Intel -dice RC- prevé un sostenido crecimiento de LA, por encima del promedio mundial que se estima en un 10%. El crecimiento esperado la ubicaría entre el 20 y 25% de incremento anual, al menos en el mercado de PC. Locuaz, este corpulento mexicano de 39 años, despierta una sonrisa cuando comenta cuánto viajó para llegar a Salta, donde se realizó este Editor Day. Desde Saltillo tuve que dar cuatro saltos para llegar a Salta -Monterrey, Dallas, Buenos Aires y finalmente Salta-, comenta. Estamos en momentos muy interesantes en la industria de cómputo -industria que hace 17 años que lo ocupa-. Además de ser uno de los ejecutivos más importantes de Intel en América Latina, Ricardo Carreón se hace tiempo cada día para mantener con buen contenido su blog, uno de los más visitados desde dentro y fuera de la corporación, segun lo comentó Esteban Galuzzi. Hacia los 90 -reflexionó RC- la PC era un bicho raro y no era un elemento transformador de la empresa. Algunos departamentos tenían PC para computos o informes. Pero en general eran máquinas temidas y había en torno de ellas discusiones que hoy consideraríamos estúpidas, dado que ahora son elemento de transformación, particularmente por Internet, en su actual etapa web 2.0 En Web 2.0 la información deja de ser estática y es actualizada en tiempo real. Y todos los lanzamientos de Intel inserta tecnologías que potencian esta transformación. Intel renovó en estos últimos meses todos sus procesadores, tanto desktop como móviles. Y toda esta renovación se basa en la arquitectura Core, que configura procesadores totalmente nuevos. Nuevos -dice RC- porque tienen mayor capacidad de cómputo y optimizan el consumo de energía. Centrino fue el primero que redujo dramáticamente el consumo de energía. Laa primeras baterias de Centrino, con 6 horas de duración, iniciaron esta revolución. Otro aspecto fue la reducción de microprocesadores a 60 nanómetros y vamos hacia chips de 45 nanómetros. Pentium IV duró más del ciclo ideal -dos años- Web 2.0 es un gran innovador -la semana pasada se realizó la conferencia más importante de la industria, patrocinada por O´Rally (editor de libros). Web 2.0 está alterando la forma como se hace cómputo en las empresas. El reto de los gamers Y otros quienes están retando las fronteras son los gammers y se han convertido en un sector muy importante porque no solo prueban los equipos sino que sugidren cómo mejorar. Un ingrediente especial en el contexto está el mundo del entretenimiento, facilitado por web 2.0, un área en el que se nota una notable personalización. Nicholas Negroponte anticipó en Ser Digital cómo serían nuestros periódicos del futuro, no ya un solo ejemplar sino partes de varias publicaciones que nos informen diariamente y que en el viaje de casa al trabajo, el auto nos vaya informando. RSS está aqui y ventualmente todos los usuarios lo adoptarán. WEB 2.0 Básicamente -explica RC-, web 2.0 es pasar de un modelo estático a una aplicación -que ya no es estática- con la que interactuamos y vamos construyendo la aplicación. Ej Flicker -que permite ver fotografias de millones de personas alrededor del mundo-, desde profesionales a amateurs y nosotros mismos que deseamos intercambiar o compartir. Y el valor de Fliker está no el desarrollo sino en las fotografías posteadas alli. Y sobremanera en el valor que muchas de esas fotografías conllevan. Ej las fotos que subió desde Saltillo, montañas y amanecer… no solo la info de las fotos sinol qué le colocó Ricardo y luego los comentarios que ha despertado todas esas fotos. Y toda esa interacción es lo que le da valor a Fliker. Por ello, se habla ahora del valor social de estas nuevas aplicaciones que facilita Web 2.0. Blogs es igualmente un fenómeno muy interesante. Ricardo dice tener dos blogs, uno interno de Intel y otro de acceso público en la web. Un blog es una herramienta de publishing que permite que cualquiera publique. Unos lo usarán para informar de su vida, nuevo novio, o publicaciones informativas o de acción política. Lo interesante es mirarlo desde un marco más distante -la blogosfera- y vemos entonces la significación pública. Como ocurrió en las recientes elecciones norteamericanas y donde los blogs jugaron un papel muy importante. Lo mismo sucede con la wikipèdia. Puede ser que no sea tan exacta y enjundiosa como la Enciclopedia Británica -que tiene un altísimo nivel de calidad-. En wikipedia cualquiera puede editar y por ende puede haber muchos artículos incorrectos. Pero aún así, hay en ella un número de artículos mucho más alto que la Enciclopedia Británica. Y tiene que ver con el esfuerzo de millones de personas editándola en el mundo. Cosas como los blogs están siendo utilizadas dentro de las empresas y permiten que las personas den su opinión y ello enriquezca mucho a las organizaciones hasta aqui caracterizadas por un centralismo ejecutivo, que ahora incorporarn más personas pensantes. Ciertamente muchos ejecutivos temen perder el control. Pero un 18% de empresas de EEUU ya tienen blogs internos y otro número similar está implementándolo. Mientras que otra cifra cercana evalua adoptarlo. Otro concepto es Long Tail Concept – si vamos a una tienda vemos que generalmente tiene un buen surtido de aquellos artículos más vendidos -libros, por ejemplo- y de ese modo siguen la curva de hits, evitándose estoquearse de articulos invendibles. Pero qué ocurre con los sitios virtuales, donde no está el problema de estoquearse. El ejemplo aquí es la tienda de iTunes, donde puede haber una canción que acaso se venda una vez al mes. Pero la tiene, porque el costo marginal de almacenarla es casi cero. Ocurre entonces que la distribución en las tiendas on line modifica la habitual Ley de Paretto (el 20% de los artículos concentra el 80% de las ventas) que se aplica para las tiendas físicas. En las on line no es el 20% de los articulos el que concentra el 80% de las ventas. Al contrario, los analistas observan que muchas ventas raras están siendo el 50% de las ventas. RSS transforma las publicaciones Los clientes de medios digitales no tien en necesidad de leer hoy toda la publicación sino aquellos aspectos que les interesan. Hoy los servidores de contenidos no solo9 están enviando bites de texto a esos usuarios, sino que muchos son hoy fotgos y videos, a la luz de sitios exitosos como You Yube. Y ello conlleva una tendencia que irá paulatinamente hacia alta definición. ¿Y cómo es soportado esta tendencia por el hardware? Basicamente se incrementaba la velocidad del reloj de los chips, pero el incremento de performer logrado tambien aparajeba un aumento del clonsumo de energía. Habia en forma paralela un reto para disipar el calor que se producia por ese proceso. Hasta allí la perfomance lograda era -x ej- un 13% pero el consumo de energía para ello era de 60%, con lo que calentaba cada vez más el chip. Era como plantear un CPU de 100 dólares y un sistema de enfriamiento de 2000 dólares; algo que el mercado obviamente no tolera. Los ingenieros se planteaban como subir una curva lineal -de performance- que produce como resultado otra curva exponencial -la energía-. ¿Que quieren? argumentaban: ¿más performance como en los motores de los coches? Se plantearon entonces que distintas partes de un microprocesadores debían atender aspectos tales como la performance por un lado. Allí surgió el concepto de dual core, poner una doble CPU en cada chip. Ello fue posible además porque Intel logró bajar el espacio físico de los transistores dentro del chip. Ello conlleva poner más transistores en un mismo espacio y procesar más, bajando a la vez el consumo de energía. Algo que apareció con Centrino 2003. Todavía no estamos en el punto en el que una bateria de laptop tenga la duración de un celular. Pero Centrino comenzó a modificar esa tendencia, cuando hasta alli la mayoría de las baterias solo servían por dos horas, saltó a 6 y ahora hay equipos que llegan a 10 horas de duración. ¿Qué sucede en tanto en las empresas? Allí se requieren cada vez más servidores para soportar su actividad y esa cualidad que satisfacen dual core y ahora de quad core -que comienza por servidores- que a poco de aparecer, la semana pasada, causó revuelo y problemas de abastecimiento. Servidores blades -la tendencia ultradelgada- que permite poner en menos espacio mas potencia de cálculo y con menos problemas de disipación de calor. Vamos hacia 45 nanómetros. La tecnología está en 2006 en 65 nanómetros; en 45 en el 2008 y en el 2010 se estará en 32 nanómetros. Tendencia a la Ultramovilidad Ultramobile PC -portátiles muy pequeñas y que pueden conectarse muy rápidamente a Internet-. Sea por dispositivos que puedan llevarse o vengan en otros, como el auto, logrando allí ultramovilidad. Y en este concepto también se trabaja por tener esa disponibilidad desde un servidor hasta un pequeño dispositivo. Para que ello ocurra debe existir libre disponibilidad de Banda Ancha. Para ello Intel firmó acuerdos con carriers como Sprint y Clearw´re, en EEUU. Y ello fue posible porque ambas adoptaron la tecnología WiMax. Algo que Intel recplica en LA invirtiendo en algunos operadores que están implementando WiMax -como ser Ertach, en la Argentina-. También adelantó que las notebooks de 2007 en adelante vendrán con PCMCIA que permitirán conectarse a WiMax naturalmente y ello vendrá luego den