Para no jugar con fuego

¿Qué tan seguro es el mundo digital? Bajo ciertas circunstancias, puede ser un terreno muy peligro
Andrés Piedragil Gálvez

Imaginemos: en el puerto de Veracruz, dos empresas importantes, que compiten entre sí, se ubican en la misma cuadra. En la operación diaria de ambas, los sistemas de cómputo –redes, pcs, servidores de Internet, etcétera– tienen un papel estratégico: entre otras funciones, guardan y organizan la información sobre sus productos, clientes, proveedores y distribuidores.

-

Un buen día –en realidad, uno muy malo– un huracán causa graves daños en el puerto. La ciudad sufre daños severos; la zona en donde se ubican las compañías competidoras es una de las más afectadas. De hecho, sus instalaciones están prácticamente destruidas.

-

Sin embargo, el golpe de la naturaleza no deja la misma marca en ambas organizaciones. En una de ellas, que carecía de tecnologías de respaldo sólidas y no había diseñado una estrategia para almacenar su información de negocios, la pérdida es total: además de la infraestructura física, la compañía ha perdido toda la información que resulta crítica para sus operaciones de negocio. Una reconstrucción total –lo que implica tiempo fuera del mercado y clientes insatisfechos– es la única salida.

-

Para la segunda empresa afectada, la historia tiene un final menos dramático. A diferencia de su competidora, la compañía contaba con dispositivos de almacenamiento especializados y había definido un plan para proteger todos los datos corporativos. El personal de esta empresa sólo tuvo que trasladarse a un business center o site alterno, rentar el equipo necesario –computadoras y un servidor–, instalar y recuperar su información –almacenada, por ejemplo, en cintas magnéticas o discos ópticos– y empezar a trabajar. En cuestión de horas, la compañía estaba atendiendo a sus clientes y proveedores. Es decir: operando en condiciones casi normales.

-

Hasta aquí, cualquiera podría pensar que un huracán es un ejemplo demasiado radical. Un caso extremo. Observemos, entonces, una situación mucho más común: el sistema informático de su empresa sufrió una “caída” grave. Mientras el departamento de sistemas soluciona el problema, la organización no tiene acceso a la información corporativa que reside en el sistema. Es cierto, los datos no desaparecen –no hay que salir corriendo al business center más cercano–, sino que están, por algunos momentos, fuera del alcance de los ejecutivos. En 60 minutos todo vuelve a la normalidad.

-

Sin embargo, ¿sabe cuánto costó el “tropezón” del sistema? Si la empresa se dedica a la correduría, la hora se traduce –según el estudio Contingency Planning Research, presentado por la firma consultora Horizon Information Strategies– en una pérdida de $6.45 millones de dólares. En una empresa detallista, especializada en las ventas por catálogo, esos 60 minutos costaron $90,000 dólares. Para el sistema de reservaciones de una aerolínea, la cifra se calcula en $89,500.

-

De hecho, y de acuerdo con la fuente citada, el costo promedio estimado, por indisponibilidad de un sistema, es de $6 millones de dólares por hora (ver recuadro).

-

¿Un ejemplo más? El tan mencionado problema del año 2000. En su empresa, seguramente, ya se han tomado medidas para establecer la compatibilidad del sistema de cómputo. Sin embargo, eso no asegura que la llegada del nuevo milenio pasará desapercibida. Aunque el desempeño general de la plataforma, ya en el año 2000, podría ser el adecuado, es un hecho que nadie tiene la tranquilidad comprada: el proceso para alcanzar la plena compatibilidad no será rápido, ni estará exento de dificultades y, en ese sentido, algunas aplicaciones fallarán. Una vez más, el riesgo de perder información valiosa está latente.

-

Si la organización, a estas alturas del partido, no ha diseñado una estrategia para enfrentar el año 2000 –y, por supuesto, no ha pensado en la integridad de los datos que están guardados, en esos “equipos en riesgo”–, el peligro adquiere dimensiones épicas.

-

Riesgos digitales

-

Al margen del caso especial que representa el año 2000 –cuyo origen y consecuencias están determinadas por factores específicos–, un desastre natural y la indisponibilidad del sistema no son acontecimientos de excepción: ocurren y tienen un impacto negativo sobre las plataformas tecnológicas de las empresas. De hecho, durante el próximo milenio, y aunque las cifras actuales –presentadas en el Contingency Planning Research–  ya señalan pérdidas significativas, los estragos serán mayores.

-

¿La razón? Las operaciones y decisiones de negocio no se basarán en papel. A diferencia de lo que ocurre hoy en día, un volumen muy importante de la información corporativa estará digitalizada. Según un estudio de International Data Corporation (IDC) y StorageTek (empresa especializada en tecnologías de respaldo y almacenamiento), hacia el año 2003 los datos digitales representarán 50% de toda la información que utilizan las compañías (ver recuadro).

-

“Las compañías dependen, cada vez más, de las computadoras y de los datos digitalizados. Para el periodo 1998-2003, habrá un incremento general en la generación de información; sin embargo, la de características digitales es la que mantendrá la mayor –y más constante– tasa de crecimiento. Esa información debe guardarse en algún lado, y tendrá que ser en un medio digital”, señala Juan Portillo, director general de StorageTek de México.

-

Actualmente, los proveedores del sector informático ofrecen diversas opciones en soluciones de almacenamiento y respaldo: sistemas basados en tecnología de cintas magnéticas –Digital Data Storage (DDS), Digital Audio Tape (DAT), Digital Linear Tapes (Tape Recks o DLT)–; equipos que utilizan discos óptico-magnéticos (Magneto-Optic); librerías de cintas automatizadas (Automated Tape Library o ATL, en donde un robot pequeñísimo, previamente programado, se encarga de montar y desmontar las cintas de respaldo); servidores de cdrom/rw; grabadoras de CDs, entre otras.

-

Estos dispositivos, que se combinan con software especializado –propietario o desarrollado por terceros–, almacenan desde gigabytes hasta terabytes de información (dependiendo del proveedor y de capacidades particulares).

-

Sin embargo, esta diversidad de soluciones no siempre se aprovecha: “He visto casos en donde las empresas respaldan (sus servidores) en sistemas muy rudimentarios. O casos aún más graves: compañías grandes que no cuentan con una estrategia de respaldo. Si a un grupo de empresarios le preguntaran: ¿cuál es el elemento más importante de una computadora?, responderían que el CPU, otros dirían que la memoria, etcétera. Ninguna respuesta acertaría: lo más importante y valioso es la información guardada en la PC”, señala Carlos González, gerente para América Latina del Grupo de Almacenamiento de Información (ISG) de Hewlett-Packard.

-

Piense, después guarde

-

Un mundo digital que impone sus formas y una oferta amplia en tecnologías de almacenamiento y respaldo. Considerando estos factores, resulta difícil imaginar a una empresa que no piensa en la seguridad de sus datos críticos.

-

Sin embargo, en opinión de los ejecutivos de HP y StorageTek, las compañías no pierden información por falta de equipos adecuados, sino por la ausencia de una estrategia de almacenamiento real. Es decir, el daño se provoca por un uso mal planeado de la tecnología.

-

En primera instancia, habría que señalar que en todas las empresas con despliegues de sistemas significativos existen mecanismos para almacenar y respaldar información. Por lo general, al mismo tiempo que se adquiere un servidor, se compra un dispositivo de almacenamiento –lo que los proveedores de hardware llaman “tecnologías de almacenamiento asociadas”–.

-

Desafortunadamente, esto no exenta de riesgos a las empresas. González, de HP, explica porqué: “En un departamento existen equipos que operan con cintas de respaldo que usan un software específico. En otra área, la tecnología y el software del equipo son diferentes. En una más, las características también son distintas. Cuando ocurre un siniestro, todos llegan con sus cintas, acompañadas de su respectivo software. ¿Sabes cuánto se tardará la empresa en restaurar eso? Meses, lo cual, desde una perspectiva de mercado, representa un grave problema.”

-

Para evitar este tipo de situaciones, StorageTek propone un cambio de paradigma: una plataforma de protección basada en una arquitectura abierta y centrada en las tecnologías de almacenamiento.

-

“Esta arquitectura, compuesta por distintos niveles o layers, es abierta: permite la incorporación de los servidores de distintos fabricantes, ya que el objetivo principal es crear un almacenamiento centralizado en las necesidades de disponibilidad de la información y no en el almacenamiento asociado al servidor. Esto permitirá que los datos guardados sean compartidos y recuperados”, comenta Portillo, de StorageTek.

-

La propuesta de la compañía –llamada Virtual Intelligent Storage Architecture (VISTA)–, es una solución que está apegada a las necesidades de las empresas: “Nuestra misión es la de recabar información, moverla, almacenarla y compartirla. Sólo así se consigue que los datos se vuelvan valiosos. Un departamento genera información, la cual se mueve y se almacena. Sin embargo, otra área de la empresa podría necesitar esos datos para tomar una decisión de negocios importante;  la información debe estar disponible para quien la requiera en el entorno”, añade Portillo.

Inicia el día bien informado
Recibe todas las mañanas las noticias más importantes para empezar tu día.

-

Mientras el cambio de paradigma ocurre, lo mejor es estar preparados para cualquier contingencia.

Ahora ve
Para Estados Unidos, el TLCAN necesita cambios de fondo
No te pierdas
×