La cantidad de datos en existencia está creciendo literalmente por segundo. De hecho, el 90% de los datos mundiales se creó en los últimos dos años. No es solo la cantidad que aumenta, sino también el valor. Empresas de todos los tamaños han encontrado que los datos se encuentran entre sus activos más importantes, por lo que un evento de pérdida puede ser una propuesta verdaderamente aterradora.

Para una empresa como Amazon, la pérdida de datos y su tiempo de inactividad asociado pueden ser especialmente costosos (una estimación de 2013 pone el costo en más de $ 65M por minuto), pero no tiene que ser el minorista más grande del mundo para sentir el dolor.

Un estudio reciente realizado por mi compañía, junto con la firma de investigación IDC, descubrió que el tiempo de inactividad también puede ser un asesino para las PYMES. De las 400 empresas encuestadas, casi el 80% estimó que el tiempo de inactividad les cuesta al menos $ 20,000 por hora o más, y más del 20% estima que les cuesta al menos $ 100,000.

Ejemplos recientes

  • Top 10 violaciones de datos de los últimos 12 meses

Los eventos de pérdida se pueden sentir en todas las áreas del negocio, desde ventas y mercadotecnia hasta RRHH e I + D, y pueden tener consecuencias negativas a largo plazo en la productividad, los ingresos e incluso la percepción pública en algunos casos..

Algunos incidentes recientes de alto perfil han dejado en claro los posibles impactos de la pérdida de datos. Un fallo en la computadora provocó la pérdida de miles de correos electrónicos enviados por la ex funcionaria del IRS, Lois Lerner, quien actualmente es el objetivo de una investigación en el Congreso, lo que resultó en un serio revés para los investigadores.

De manera similar, CodeSpaces, empresa de alojamiento de códigos, recientemente fue víctima de un ataque y intento de extorsión, lo que resultó en la eliminación parcial o completa de la mayoría de sus datos y obligó a la compañía a cerrar. ¿La razón? Todos sus datos y copias de seguridad se almacenaron en los servicios web de Amazon, que fueron eliminados por completo por el ataque.

La regla 3-2-1

Estos incidentes demuestran que hoy, más que nunca, todas las empresas necesitan un plan de protección de datos integral, de modo que al menos una copia de los datos siempre sobreviva. Un método probado y verdadero para seguir es el Regla 3-2-1: Hacer Tres copias de cada pieza de datos importantes, almacene esos datos en dos diferentes formatos y mantener uno copia fuera del sitio.

Esto garantiza una protección completa en caso de un desastre de datos o una infracción. La regla 3-2-1 garantiza que no importa qué, ya sea un error humano, una falla de hardware o un desastre natural, su empresa está protegida y puede concentrarse en el resultado final.

Entonces, ¿cómo funciona exactamente la regla 3-2-1?

3 copias

Además de la copia original, siempre debe tener dos copias adicionales de sus datos, ya sea en un servidor, en un almacenamiento conectado a la red, en un disco duro, en la nube o en otro lugar. Esto garantiza que ningún evento en particular eliminará todos sus datos importantes.

2 formatos

La segunda ley de la regla 3-2-1 establece que debe guardar copias de sus datos en al menos dos tipos de medios o almacenamiento diferentes. Esto probablemente incluye una unidad interna así como un medio externo como un disco, cinta, flash y almacenamiento en red o en la nube.

Lo ideal es que una de sus copias de seguridad locales se cree con tecnología de imagen, que respalde todo el sistema operativo, las aplicaciones y los archivos, para que no tenga que volver a instalar o reconfigurar sus sistemas y preferencias nuevamente. En esencia, la copia de seguridad de imagen le permite restaurar un sistema completo a un punto específico en el tiempo. Cada medio tiene diferentes modos de falla y esto asegura que no haya un modo de falla común.

1 copia fuera del sitio

Almacenar al menos una copia de la premisa es esencial para garantizar la protección contra desastres físicos como incendios, inundaciones o robos. Al crear múltiples copias, preservar la integridad de la copia inicial se vuelve de suma importancia, de lo contrario, cada réplica construida a partir de esa copia tendrá los mismos defectos. Si está almacenando en varias ubicaciones, todos los archivos deben ser revisados ​​para verificar su consistencia. A partir de ahí, las técnicas de deduplicación garantizarán que pueda eliminar bloques de datos redundantes, mientras que el cifrado agregará seguridad y la catalogación y la indexación permitirán una recuperación rápida.

Los gerentes de TI de hoy enfrentan un desafío significativo. La cantidad de datos que genera cada compañía crece cada segundo, y con ello, la necesidad de una estrategia de respaldo sólida. Encontrar tal estrategia requiere investigación y una cuidadosa consideración. Los gerentes deben buscar soluciones que puedan adaptarse a los datos de alta velocidad y cambios rápidos, y que satisfagan las necesidades de seguridad, deduplicación, replicación, velocidad y eficiencia de una empresa..

Y aunque es tentador suspender estas tareas hasta mañana, la planificación es esencial para prevenir un desastre. Para cada empresa, la pérdida de datos es solo una cuestión de cuándo, no si.

  • Joel Berman es miembro de Acronis