Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Poder colectivo

Sumando la fuerza de varias PCs, una empresa puede superar la capacidad de la máquina más poderosa
mar 20 septiembre 2011 02:54 PM

Al iniciar su jornada de trabajo, el contador de la compañía enciende su computadora personal (PC). Durante el horario laboral, la máquina del trabajador genera textos, informes, estadísticas, correos electrónicos, consultas a bases de datos, respaldos de información, etcétera. Cuando el reloj marca las seis de la tarde, el empleado apaga el equipo e inicia el regreso a casa. Desde el punto de vista del rendimiento laboral el día parece perfecto: gracias al sistema de cómputo el individuo realizó, con precisión y rapidez, múltiples tareas.

- -

A pesar de los resultados aparentemente positivos, la compañía está desperdiciando un recurso importante: la capacidad real de la PC. De acuerdo con una investigación de AMR Research, durante los periodos de actividad intensa (un día de trabajo habitual), en todo el mundo, los dispositivos de escritorio padecen una subutilización de 90%. Es decir: el poder de procesamiento de la máquina no se aprovecha al máximo. Una persona que trabaja simultáneamente con varias aplicaciones (hoja de cálculo, acceso a internet, correo electrónico, etcétera), no representa un reto mayor para la computadora promedio de la actualidad. Según diversas estimaciones, con 40% de su potencia disponible los sistemas personales contemporáneos están preparados para satisfacer los requerimientos de cualquier usuario.

- -

El desperdicio también se manifiesta en el renglón del almacenamiento. Ahora no resulta complicado encontrar discos duros de PC que ofrezcan capacidades de Gigabytes (GB) –hace algunos años, la franja de los Megabytes parecía una barrera insuperable–. En un entorno corporativo, los empleados difícilmente ocuparán todo el espacio del depósito de datos de la PC. Aunque los programas más comunes exigen una porción significativa del disco central, según varias fuentes, una persona sólo utiliza entre 40% y 50% del poder de almacenamiento de la máquina de escritorio.

Publicidad

- -

En ambos casos las organizaciones, de forma imperceptible, sufren pérdidas importantes. Por ejemplo: una compañía desembolsa $7,000 pesos por cada PC instalada. El costo final del equipo incluye las características de poder de procesamiento y almacenamiento. Al final del día la empresa pagó una suma de dinero por una herramienta que no se usó a su máxima potencialidad. Cuando la firma decide renovar las PCs, el desperdicio se repite una vez más: adquirirá nuevos dispositivos que, seguramente, también serán explotados parcialmente.

- -

De acuerdo con una investigación de la Universidad de Wisconsin, la gran mayoría de las corporaciones estadounidenses utiliza menos de 25% de su capacidad total. Según la empresa DataSynapse, incluso en una casa de bolsa que opera en un mercado automatizado (lugar en el que se pensaría que existe una aplicación intensiva de recursos informáticos), presenta un desperdicio de procesamiento de 60%.

- -

En el marco de su foro para desarrolladores (realizado en San José, California), Intel lanzó una propuesta tecnológica que está diseñada para asegurar el óptimo rendimiento de los bytes. Su nombre: el modelo de cómputo Peer-to-Peer (P2P).

- -

La sana costumbre de compartir
-
Por su traducción literal del inglés, P2P significa "de nodo a nodo". Bajo los parámetros del concepto de Intel, el nombre refiere a la capacidad de unir los recursos esenciales de las PCs conectadas a internet –habitualmente desaprovechados– para realizar tareas de gran envergadura. En otras palabras: tomar el poder informático (procesamiento o almacenamiento) que no usa una máquina, añadirlo al potencial técnico que tampoco aprovechan otros sistemas en línea (los cuales pueden estar ubicados en cualquier parte del planeta) y, a partir de la suma de los múltiples recursos disponibles, construir en la Red una instancia de cómputo muy poderosa. "Diez mentes trabajan mejor que una" en el fondo, esa es la idea que está detrás de la visión P2P.

- -

De acuerdo con cálculos de organismos promotores de esta tecnología, como OpenP2P, actualmente las PCs enlazadas a internet, en forma conjunta, hospedan 10,000 millones de MHZ de poder de procesamiento y 10,000 terabytes de almacenamiento, montos que nadie aprovecha totalmente. El estimado, según OpenP2P, es sumamente conservador: sólo considera a 100 millones de equipos con conexión a la web (de los 300 millones que existen en el ámbito mundial) y se basa en configuraciones que ya fueron superadas por los fabricantes de PCs (procesadores de 100 MHZ y discos duros de 100 Mb).

- -

En las instalaciones de Intel ya se habilita un esquema P2P. El fabricante de chips "dona" su poder de cómputo inutilizado a una entidad científica que está desarrollando una cura para el cáncer (la comunidad incluye a la Asociación Estadounidense de Lucha contra el Cáncer, la Fundación Nacional para la Investigación del Cáncer y la Universidad de Oxford).

- -

Para integrarse al esquema P2P, los empleados de Intel tienen que descargar de la Red un programa (también disponible para el público general en http://www.intel.com/cure) e instalarlo en la PC. Una vez integrada, la aplicación solicita al centro de investigación un paquete de datos para procesarlo. Esta tarea se realiza cada vez que existen recursos de cómputo disponibles. El manejo de la información se lleva a cabo durante el uso normal de la PC y sin que el usuario perciba una baja en el desempeño o note que el sistema está dedicando poder a una labor especial, ya que sólo se usan bienes técnicos no utilizados. Cuando la máquina concluye el análisis del conjunto de datos asignado, la PC entrega los resultados al instituto y solicita una nueva tarea al momento que el usuario se conecta a la Red. La aportación de recursos informáticos se repite en todos los equipos que Intel posee en el mundo.

- -

Al aprovechar la contribución de la firma tecnológica, el organismo científico está ahorrando una cantidad importante de dinero. Para analizar el comportamiento de una molécula que podría combatir algún tipo de cáncer, los científicos tendrían que adquirir una supercomputadora que ofreciera, como mínimo, una fuerza de 24 millones de horas de procesamiento. La suma de los sistemas de Intel crea un equipo virtual con capacidad de llevar a cabo más de 50,000 millones de operaciones por segundo. Actualmente, una máquina que pueda computar cinco teraflops (medida de procesamiento que equivale a un trillón de operaciones por segundo) posee un precio promedio de $100 millones de dólares. Utilizando los recursos técnicos que tradicionalmente desperdician las PCs conectadas a internet, asegura el fabricante de chips, es posible construir un entorno de cómputo virtual que esté preparado para procesar 50 teraflops, cuyo costo sería de $1 millón de dólares.

- -

México: ¿listo para la generosidad?
-
Los sistemas P2P se encuentran en su etapa más temprana. Los proveedores interesados en participar en el nicho están en el proceso de convencer al mercado. No obstante, la respuesta de analistas e inversionistas, hasta el momento, ha sido favorable. Para AMR Research, P2P es una de las 10 tendencias tecnológicas más importantes del momento. Asimismo, DataSynapse –una firma que se especializa en soluciones P2P– recibió una inyección de capital privado por $5.2 millones de dólares. En general, las expectativas del sector de tecnologías de información son muy altas.

- -

"Para la industria del cómputo, P2P será un fenómeno tan importante como en su momento lo fue el desarrollo de las interfaces gráficas para el usuario (el ambiente Windows). P2P implica una revolución de semejante magnitud", asegura David González , gerente de Mercadotecnia de Intel de México.

- -

Según el entrevistado, las empresas "tienen que contar con un mecanismo para aprovechar su inversión en PCs. En cada máquina hay bienes de procesamiento y almacenamiento que no se ocupan, y las organizaciones están pagando por dichos recursos subutilizados. En ese sentido, P2P propone conjuntar los recursos técnicos verdaderamente disponibles y así generar mejores capacidades de cómputo empresarial, en lugar de gastar dinero en la adquisición de infraestructura adicional. Las compañías, en su operación interna, pueden usar el poder agregado para ampliar el ancho de banda del acceso a internet, guardar información especial y asignar mayor fuerza de procesamiento a una tarea estratégica. Por ejemplo: una corporación internacional tiene poder de cómputo que no se utiliza durante distintas horas del día, ya que cada filial local se adhiere a un uso horario diferente. Con una plataforma P2P, los recursos que deja de ocupar una oficina pueden asignarse a otras sedes que continúan trabajando."

- -

Sin embargo, reconoce González, esta tecnología apenas está construyendo sus cimientos. Las aplicaciones P2P de uso empresarial masivo están a la espera de una guía definitiva. "Los proveedores de hardware y software están definiendo estándares de colaboración P2P. El objetivo es establecer una arquitectura que asegure la habilidad para compartir capacidades, consolidar un esquema técnico que detecte los recursos dispersos disponibles en la Red y que facilite el acceso a ellos. En ese sentido, la prioridad es crear una vía de comunicación que no esté obstaculizada por algún tipo de tecnología propietaria", explica González.

- -

Al evaluar el potencial de P2P, Alejandro Floreán , gerente de Negocios de Software e Interconectividad de Select-IDC, muestra una actitud más mesurada. En opinión del analista, en el mercado mexicano estas tecnologías no tendrán un impacto inmediato. Los principales inhibidores: la calidad del acceso a internet y la penetración de los sistemas tecnológicos en los ambiente de negocio locales.

- -

"Actualmente el país no cuenta con enlaces a la Red de alta calidad. Las soluciones de banda ancha todavía no llegan al consumo masivo. Sin dichas condiciones de acceso, la capacidad para compartir recursos en línea resultará deficiente. Para entrar a la supercomputadora virtual, el usuario necesita una muy buena conexión; de lo contrario, la utilización de los recursos distribuidos será una experiencia poco satisfactoria, difícil de conseguir y que ofrecerá pobres resultados", apunta Floreán.

- -

Por otro lado, el especialista de Select-IDC considera que las compañías mexicanas aún están lejos de la generosidad de bytes. Las organizaciones locales no pueden repartir algo que no poseen: poder de cómputo en exceso. "En México, la penetración de los sistemas tecnológicos todavía es incipiente. De acuerdo con estudios realizados por Select-IDC, las empresas mexicanas invierten menos de 1% de su presupuesto en la adquisición de tecnología. Antes de repartir hacia el exterior o distribuir internamente recursos de cómputo, los hombres de negocio deben fortalecer la presencia informática en sus organizaciones. P2P es una apuesta con mucho valor; sin embargo México, por ahora, no ofrece el mejor escenario de instrumentación."

- -

Como asegura Floreán, la revolución P2P quizá no ocurra mañana. Sin embargo la tendencia tecnológica no debe ser descartada. La optimización de recursos es una promesa que se puede concretar. De lo contrario, habrá que seguir pagando el precio de sistemas que operan "a medio gas".

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad