¡Pide presupuesto en 2 min! ✓
Ciberseguridad

Centro de procesado de datos. ¿Qué es?

9 Mins read

Con el aumento actual del uso del cloud computing y el Big data, la seguridad informática es cada vez más importante. Un ciberataque, un fallo en los sistemas informáticos o la pérdida de datos puede hacer que el funcionamiento de una empresa se vea comprometido. Para evitar esto, han surgido los centros de procesado de datos. En este post vamos a explicar qué es un centro de procesado de datos, sus características, tipos y requisitos de seguridad que debe cumplir.

¿Qué es un centro de procesado de datos (CPD)?

Un servicio central de procesamiento de datos se usa comúnmente para cumplir una misión crítica en computadoras y telemática. Generalmente incluye controles ambientales (sistema de aire acondicionado para prevenir contra incendios, etc.), energía de emergencia y redundante, y una alta seguridad física. Entonces, ¿qué es un centro de datos?

Un centro de procesado de datos (CDP) o centro de datos es un lugar donde se encuentran diversos equipos electrónicos, especialmente computadoras y equipos de telecomunicaciones. Como sugiere su nombre, sirve principalmente para procesar la información necesaria para una empresa, desde datos personales de usuarios a gran escala hasta información confidencial de la empresa..

Por ejemplo, un banco puede utilizar dicho centro de procesado de datos, brindándole información sobre sus clientes mientras procesa las transacciones del mismo. En la práctica, casi todas las empresas medianas utilizan dicho centro. En cuanto a las grandes empresas, suelen utilizar decenas.

Las bases de datos suelen ser fundamentales para las operaciones comerciales y son muy sensibles a su protección. Por esta razón, estos centros de procesamiento de datos mantienen altos niveles de seguridad y servicio para garantizar la integridad y operación de los equipos en el sitio.

Antes de la burbuja de Internet, se construyeron millones de metros cuadrados para albergar dichos centros con la esperanza de verlos retenidos por servidores. Desde entonces, la concentración de centros ha continuado, con el desarrollo de centros especializados para los que los retos más importantes son el control de la climatización y especialmente el consumo eléctrico.

Este movimiento se ha incorporado a la informática verde y tiene como objetivo llegar a los centros de tratamiento denominados datos ecológicos para los que han aparecido herramientas especiales.

Características de los centros de proceso de datos

Como características de los centros de proceso de datos destacamos las siguientes:

  • Manejabilidad: Un centro de datos debe proporcionar una gestión fácil e integrada de todos sus elementos. Eso se puede lograr mediante la automatización y la reducción de la intervención humana en tareas comunes.
  • Disponibilidad: un centro de datos debe garantizar la disponibilidad de información cuando sea necesario. ¿Qué significa eso? Bueno, simplemente significa que no hay tiempo de inactividad. La falta de disponibilidad de información podría costar mucho dinero por hora a las empresas.
  • Seguridad: todas las políticas, los procedimientos y la integración de elementos centrales se reúnen para evitar el acceso no autorizado a la información.
  • Escalabilidad: crea una infraestructura que pueda crecer. El crecimiento empresarial casi siempre requiere la implementación de más servidores, nuevas aplicaciones, bases de datos adicionales, etc.
  • Rendimiento: primero debes establecer los niveles de servicio. La gestión del rendimiento es asegurarse de que todos los elementos del centro de datos proporcionen un rendimiento óptimo a los niveles de servicio requeridos.
  • Integridad de los datos: asegúrate de que los datos se almacenen y recuperen exactamente como se recibieron.
  • Capacidad: cuando la capacidad requiere un aumento, el centro de datos debe proporcionar capacidad adicional sin interrumpir la disponibilidad o con una interrupción mínima.
  • Supervisión: es un proceso continuo de recopilación de información sobre los elementos y servicios que se ejecutan en el centro de datos. La razón es obvia: predecir impredecibles.
  • Informes: el rendimiento, la capacidad y la utilización de los recursos reunidos en un momento determinado.
  • Aprovisionamiento : es un proceso que consiste en proporcionar el hardware, el software y otros recursos necesarios para ejecutar un centro de datos.

Tipos de CPD

Hay muchos tipos de data center y modelos de servicio disponibles. Su clasificación depende de si pertenecen a una o varias organizaciones, cómo encajan en la topología de otros centros de datos, qué tecnologías utilizan para la informática y el almacenamiento e incluso su eficiencia energética.

Destacamos cuatro tipos principales de centros de datos:

Empresariales

Estos están construidos, son propiedad y están operados por empresas y están optimizados para sus usuarios finales. La mayoría de las veces se encuentran en el campus corporativo.

De servicios gestionados

Estos centros de datos son administrados por un tercero (o un proveedor de servicios administrados) en nombre de una empresa. La empresa alquila los equipos y la infraestructura en lugar de comprarlos.

De colocación

En los centros de datos de colocación (“colo”), una empresa alquila espacio dentro de un centro de datos de propiedad de otros y ubicado fuera de las instalaciones de la empresa. El centro de datos de colocación aloja la infraestructura: construcción, refrigeración, ancho de banda, seguridad, etc., mientras que la empresa proporciona y gestiona los componentes, incluidos los servidores, el almacenamiento y los cortafuegos.

En la nube

En esta forma de centro de datos fuera de las instalaciones, los datos y las aplicaciones son alojados por un proveedor de servicios en la nube como Amazon Web Services (AWS), Microsoft (Azure) o IBM Cloud u otro proveedor de nube pública.

Requisitos de una infraestructura para procesamiento de datos

El boom de datos presenta una gran oportunidad para encontrar nuevas eficiencias, detectar patrones nunca antes vistos y aumentar los niveles de servicio a los ciudadanos, pero el análisis de Big Data no puede existir en el vacío. Debido a la enorme cantidad de datos involucrados en estas soluciones, deben incorporar una infraestructura robusta para almacenamiento, procesamiento y redes, además de software de análisis.

Si bien algunas organizaciones ya tienen la capacidad para absorber soluciones de Big Data, otras necesitarán expandir los recursos para acomodar estas nuevas herramientas, o agregar nueva capacidad para permitir un excedente continuo de recursos.

Esta es realmente una situación en la que la cadena es tan fuerte como su eslabón más débil; Si el almacenamiento y la red están en su lugar, pero no hay capacidad de procesamiento, o viceversa, una solución de Big Data simplemente no podrá funcionar correctamente.

En el diseño para un centro de procesado de datos, al igual que en la elección del mismo, debe tenerse en cuenta lo siguiente:

Almacenamiento

A menudo, las organizaciones ya poseen suficiente almacenamiento interno para respaldar una iniciativa de Big Data. Sin embargo, las agencias pueden decidir invertir en soluciones de almacenamiento que estén optimizadas para Big Data. Si bien no es necesario para todas las implementaciones de Big Data, el almacenamiento flash es especialmente atractivo debido a sus ventajas de rendimiento y alta disponibilidad.

Los grandes usuarios de Big Data, empresas como Google y Facebook, utilizan entornos informáticos de hiperescala, que se componen de servidores básicos con almacenamiento de conexión directa, ejecutan marcos como Hadoop o Cassandra y, a menudo, utilizan almacenamiento flash basado en PCIe para reducir la latencia. Mientras tanto, las organizaciones más pequeñas a menudo utilizan almacenamiento de objetos o almacenamiento en clúster adjunto a la red (NAS).

Un centro de procesado de datos en la nube es una opción para la recuperación de desastres y las copias de seguridad de las soluciones de Big Data locales. Si bien la nube también está disponible como fuente principal de almacenamiento, muchas organizaciones, especialmente las grandes, descubren que el gasto de transportar datos constantemente a la nube hace que esta opción sea menos rentable que el almacenamiento local.

Procesamiento

Los servidores destinados a la analítica de Big Data deben tener suficiente potencia de procesamiento para admitir esta aplicación. Algunos proveedores de análisis, como Splunk, ofrecen opciones de procesamiento en la nube, que pueden ser especialmente atractivas para las agencias que experimentan picos estacionales.

Si una agencia tiene fechas límite de presentación trimestrales, por ejemplo, esa organización podría activar de forma segura el poder de procesamiento bajo demanda en la nube para procesar la ola de datos que llega alrededor de esas fechas, mientras confía en los recursos de procesamiento locales para manejar la estabilidad.

Software de análisis

Las agencias deben seleccionar un centro de procesado de datos o centro de cálculo basándose no solo en las funciones que puede completar el software, sino también en factores como la seguridad de los datos y la facilidad de uso.

Una función popular del software de análisis de Big Data es el análisis predictivo: el análisis de datos actuales para hacer predicciones sobre el futuro. La analítica predictiva ya se utiliza en varios campos, incluida la ciencia actuarial, el marketing y los servicios financieros. Las aplicaciones gubernamentales incluyen detección de fraude, planificación de capacidades y protección infantil, y algunas agencias de bienestar infantil utilizan la tecnología para señalar casos de alto riesgo.

Muchas empresas ya han comenzado a probar aplicaciones de Big Data o ponerlas en producción.

Redes

Las enormes cantidades de información que deben transportarse de un lado a otro en una iniciativa de Big Data requieren un hardware de red robusto. Muchas organizaciones ya están operando con hardware de red que facilita las conexiones de 10 gigabits y es posible que solo tengan que realizar modificaciones menores, como la instalación de nuevos puertos, para adaptarse a una iniciativa de Big Data.

Asegurar los transportes de red es un paso esencial en cualquier actualización, especialmente para el tráfico que cruza los límites de la red.

Factores que pueden poner en peligro un data center

Los data procesing center se esfuerzan por brindar un servicio rápido e ininterrumpido. Los fallos de equipos, los cortes de energía o de comunicación, la congestión de la red y otros problemas que impiden que las personas accedan a sus datos y aplicaciones deben tratarse de inmediato.

Debido a la demanda constante de acceso instantáneo, se espera que los centros de datos funcionen las 24 horas del día, los 7 días de la semana, lo que crea una serie de problemas.

Las necesidades de red de un centro de procesado de datos son muy diferentes a las de, digamos, un edificio de oficinas lleno de trabajadores. Las redes de centros de datos son potencias. Las redes de fibra óptica de Google envían datos hasta 200.000 veces más rápido que el servicio de Internet del hogar. Pero luego, Google tiene que manejar más de 3 mil millones de solicitudes de motores de búsqueda diariamente, indexar muchos miles de millones de páginas web, transmitir millones de vídeos de YouTube y manejar y almacenar correo electrónico para cientos de millones de usuarios, entre sus muchos otros servicios.

Todos los centros de datos experimentan un uso cada vez mayor. Necesitan la capacidad de ampliar sus redes para aumentar el ancho de banda y mantener la confiabilidad. Lo mismo ocurre con los servidores, que pueden ampliarse para aumentar la capacidad del centro de datos.

La red existente debe poder manejar la congestión controlando el flujo correctamente. Y todo lo que esté frenando el flujo debe ser eliminado. Una red solo será tan rápida como su componente más lento. Los acuerdos de nivel de servicio (SLA) con los clientes también deben cumplirse y, a menudo, incluyen aspectos como el rendimiento y el tiempo de respuesta.

Hay varios puntos de posible fallo. Los servidores o el equipo de red pueden fallar, los cables pueden fallar o los servicios que vienen del exterior, como la energía y las comunicaciones, pueden interrumpirse.

Los sistemas deben estar en su lugar para monitorizar, responder y notificar al personal de cualquier problema que surja. La planificación de recuperación de desastres es de vital importancia en caso de fallas importantes, pero los problemas menores también deben manejarse.

Centros de datos en España

En nuestro país existen numerosos centros de datos repartidos por todas las provincias, veamos algunos de ellos:

  • Mediacloud 22: Avda. Diagonal 177 08018, Barcelona. Es una empresa del grupo Mediapro que brinda las últimas soluciones Cloud y los servicios CDP más avanzados, gestionados de forma unificada, desacoplando al máximo la infraestructura de las aplicaciones que brindan nuestros clientes, permitiendo el control y seguimiento.
  • ACK DC 1: C / Acer, 5-9 08038, Barcelona. Centro de datos totalmente tolerante a fallos. Fuente de alimentación redundante (Tier IV), Control ambiental redundante. Protección contra incendios e inundaciones.
  • Interxion MAD1 (Madrid, España). Centro de datos neutral en la nube y en el operador de Interxion en Madrid (MAD1) proporciona la última infraestructura altamente segura y escalable para sistemas de TI de misión crítica, con una amplia gama de soluciones de conectividad.
  • Adam MAD: Crta. Navalcarnero Km 25,1 28600, Navalcarnero (Madrid). El nuevo centro de datos energéticamente eficiente es uno de los más grandes de su tipo en España y uno de los más eficientes energéticamente del mundo, y se extiende por una superficie total de 57.800 m2.
  • PLEXVAL: Sevilla 76 Pol.Ind.Fuente del Jarro 46980, Paterna (Valencia). Centro de datos de portadores de alta seguridad y resiliencia. Proporciona espacio en el piso y estante. UPS / Generadores completamente redundantes.
  • ASAC Comunicaciones: Parque Tecnológico de Asturias, 29 33428, Llanera. Datacenter de última generación, diseñado bajo la premisa de estándares internacionales Tier III y equipado con la última tecnología de fabricantes como APC, Marioff, HP, Hitachi, Cisco, etc.
Yolanda González

About author
Graduada en Derecho por la Universidad de León y Máster en Abogacía por la Universidad de Oviedo. Especializada en realizar adaptaciones y auditorías conforme a la normativa de protección de datos para todo tipo de empresas y sectores.
Articles
Related posts
Ciberseguridad

¿Qué es el flaming en Internet?

8 Mins read
Dentro de la investigación del comportamiento en Internet, existen múltiples formas de acoso en la red. Dentro de estos tipos de acoso…
Ciberseguridad

Ingeniería social: Riesgos para los datos del individuo

11 Mins read
El concepto de ingeniería social con respecto a la seguridad de la información se refiere directamente al robo de datos mediante la…
CiberseguridadInternet

Todo sobre TOR o The Onion Router

9 Mins read
En el actual clima de recopilación de datos y preocupaciones de privacidad, el navegador Tor se ha convertido en tema de discusión…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Las siguientes reglas del RGPD deben leerse y aceptarse:
Este formulario recopila tu nombre, correo electrónico y e contenido para que podamos realizar un seguimiento de los comentarios dejados en la web. Para más información revisa nuestra política de privacidad, donde encontrarás más información sobre dónde, cómo y por qué almacenamos tus datos.