Blog: cloud

Filtrar:

Certificación CSA-CCM

Escrito por: Iñaki Calvo
Cloud Security Alliance Cloud Controls Matrix (CSA CCM) es una certificación de buenas prácticas (best practices), que permiten dar a conocer la seguridad de un proveedor de servicios o equipos en el Cloud y, de esta manera, pueden ayudar a posibles clientes a tomar decisiones en el caso de que decidan migrar sus servicios TI a un entorno Cloud.
Dispone de una serie de herramientas para proporcionar, de una forma clara, cómo un proveedor en la nube se ajusta a las normativas y prácticas recomendadas del sector y cumple con las regulaciones. Este conjunto de herramientas se compone de una serie de cuestionarios y/o documentos que definen lo que cumplen las empresas y hasta donde, en temas de seguridad, y así, los clientes pueden determinar si sus entornos TI pueden integrarse en el Cloud. Esto no significa que todas aquellas empresas que obtienen esta certificación, puedan dar todas las garantías de seguridad para cualquier entorno. Por ejemplo, puede haber proveedores de servicios en la nube que no tienen competencias de seguridad en temas de código. En cualquier caso, los clientes podrán encontrar aquella empresa con la certificación más adecuada a sus necesidades.
En ICM hemos decidido certificarnos para ofrecer a nuestros clientes un documento donde se acredita que nos ajustamos a las normativas y buenas prácticas recomendadas del sector y cumple con las regulaciones pertinentes.
Esta certificación cubre 16 ámbitos operativos de TI:
  • Garantía de auditoría y cumplimiento
  • Seguridad de aplicaciones e interfaces
  • Administración de la continuidad de la actividad y resistencia operativa
  • Administración de configuración y control de cambios
  • Seguridad de centro de datos
  • Administración de la seguridad de los datos y del ciclo de vida de la información
  • Cifrado y administración de claves
  • Gobierno y administración de riesgos
  • Recursos humanos
  • Administración de identidades y accesos
  • Seguridad de virtualización e infraestructura
  • Interoperabilidad y portabilidad
  • Seguridad móvil
  • Administración de incidentes de seguridad, exhibición de documentos electrónicos y análisis forense de la nube
  • Administración de la cadena de suministro, transparencia y responsabilidad
  • Administración de amenazas y vulnerabilidades
Un gran número de los principales actores del sector IT ya se ha adherido a esta certificación como un standard en el que comprobar el cumplimiento de los parámetros marcados en él.
A partir de ahora, cualquier proyecto que requiera cumplir este estandard de certificación, podréis solicitárnoslo y os lo haremos llegar.

Fin de ciclo de vida de PHP 5.5

Escrito por: Jesús Martínez

La versión PHP 5.5 acaba de llegar a su fin de ciclo de vida. Esto significa que se acaba el soporte por parte del equipo oficial de mantenedores de PHP. Es importante tenerlo en cuenta, sobretodo, en todos aquellos proyectos que están en diseño o desarrollo, descartad ya esta versión e id pensando en la versión 5.6 o la 7. La siguiente a la 5.5, la versión 5.6, parece que tendrá soporte de seguridad hasta finales de 2018. Toda la información en: http://php.net/supported-versions.php

¿Qué implicaciones tiene sobre los servidores alojados en ICM con esta versión?

No hay ninguna implicación a nivel de seguridad. Al utilizar las versiones LTS de Ubuntu, el equipo de Canonical se encarga de seguir manteniendo los paquetes de PHP que están dentro de su período de mantenimiento, es decir, los bugfix de seguridad críticos serán desarrollados por Canonical hasta el fin del soporte de la distribución (la 14.04 LTS tiene soporte oficial hasta el 2019, por ejemplo). A nivel de funcionalidades, sí hay implicación, los bugs funcionales que se puedan detectar en PHP no serán corregidos.

Consideraciones en la migración de PHP 5.5 a 5.6

Hay un documento oficial sobre las consideraciones a tener en cuenta para que vuestro código PHP 5.5 funcione sobre 5.6: http://php.net/manual/es/migration56.php
En la mayoría de ocasiones se utilizan frameworks de desarrollo, comprobad que vuestra versión del framework funciona sobre las nuevas versiones, es muy probable que no haya ningún impedimento en hacer el cambio.

Ante cualquier duda, podéis poneros en contacto con nosotros sobre el proceso del cambio si fuera necesario.

 

CLOUDTROFOBIA

Escrito por: Iñaki Calvo

SaaS, AWS, Hiperconvergencia, Dockers, Glacier, EC2, IaaS, EBS, Azure,WAF, SDS, 40Geb, CDN, ElasticSearch, IoT, SDK, RDS, API, DNS’s, Integración Continua, DevOPs, Streaming, Autoscale, HA proxy, Load Balancig, BigData, Federated Cloud, VPN, SSL, BigQuery, Ansible, ESX, ELB, Disaster Recovery, Virtual Desktop, Hybrid Data, SLA, IaaS, BYOD, Orchestrator, VDI, TS, VSAN,……

Es para perderse. Igual, incluso, podríamos llegar a pensar que la intención puede ser esa. Un laberinto de acrónimos que camuflan tecnologías más o menos útiles y que no sugieren que nunca estarás a la última en TI. Y no todas las tecnologías son necesarias ni, todas son necesarias a la vez. Hay que ponerle un poco de cordura a este mundo que se renueva día a día y que no comprende, en ninguno de los casos, que las empresas tienen periodos de implantación más lentos que la propia evolución tecnológica. Que una empresa no puede sentirse técnicamente obsoleta cuando justo acaba de implantar una tecnología en su negocio.

Y buena parte del problema tecnológico es el humo que rodea a estos términos. Llamar a una cosa de otra forma para parecer innovador. O evolucionar una tecnología mínimamente para arrancarle unas migajas de negocio a tu contrincante. Eso sí, dándole un nombre muy bonito. Un ejemplo. Llevamos escuchando el concepto dockers hace casi 10 años. Ahora empieza la moda de su utilización. ¿Ha mejorado la tecnología? Puede que sí, pero solo un poco. ¿Por qué triunfa? Sencillo, a uno de los grandes le interesa combatir con esta tecnología a otro de los grandes. Para ello le añade a su presupuesto de marketing suficiente peso como para atraer la atención de nómadas departamentos de TI. Y la lástima es que funciona. El poder del marketing.

Nuestro trabajo tiene que ir por otro lado. Los integradores, debemos escuchar las necesidades de nuestros clientes y abordar de forma creativa y óptima, las tecnologías necesarias para su puesta en marcha. Y esto, sin atender a soluciones mágicas, ni propuestas milagrosas, ni servicios con costes ridículos. Simplemente entendiendo el proyecto y adaptándote a él. Éste es el mayor de los problemas que nos encontramos hoy en día. La cantidad de veces que los proyectos se adaptan a las tecnologías en vez del camino natural. La de veces que vemos que alguien diseña su proyecto para que funcione en una u otra plataforma perdiendo la lógica de que el negocio debe tener el peso específico más importante dentro de la ecuación que resuelva tu negocio.

Servicios personalizados, análisis concretos, aplicaciones on-demand, sentido común. Aunque, a veces, parezca que sea en TI el menor de los sentidos.

Acercar el dato al usuario o el usuario al dato

Escrito por: Iñaki Calvo
Cloud, Nube, hibridación… Esto es un suma y sigue. Términos de todo tipo que hablan de Cloud, de las ventajas de éste sobre un sistema on-site, de la flexibilización, de la escalabilidad, de….. Como siempre hemos comentado en este blog de ICM, nuestra postura es clara: Cloud sí pero no para cualquier cosa.
Ahora bien, nos gustaría analizar esta eterna rivalidad desde el punto de vista de la seguridad. Desde el punto de vista de la necesidad de proteger el dato. Es fácil entender que no es lo mismo publicar una imagen en un proyecto web que puede ser distribuido, que un informe económico privado y sensible de una operación empresarial.
De las ventajas de distribuir la información de forma geográfica no hace falta hablar mucho. Son evidente y nos gusta pensar que se entienden como razonables. Distribuir se podría resumir como que el dato es acercado al usuario. Antes, cuando un dato estaba centralizado en un CPD (Centro de Proceso de Datos), los que querían acceder a él debían disponer de una buena conectividad. Era ésta quien hacía que el acceso al dato fuera usable o no. Por desgracia, la conectividad es un concepto caro. La buena conectividad depende de las negociaciones de peering entre operadores y éstos, que son competencia entre sí, no siempre se lo ponen fácil entre ellos. ICM dispone aquí de una ventaja y no es otra que disponer de Colt como operador de conectividad. Colt es el operador a nivel europeo que dispone de mayor extensión de fibra óptica propia en Europa. Esta dimensión en el cableado, le permite tener muy buenos acuerdos con la mayoría de operadores de Europa. Si el usuario que debe acceder a un dato que está en ICM reside en Europa, el acceso es de calidad. Pero ¿qué ocurre si salimos de la región de Emea? Pues la sensación se degrada. Es en este momento cuando conviene pensar en acercar el dato al usuario geodistribuyendo su presentación. Y no es que el mundo esté perfectamente conectado. Ya quisiéramos que fuera así, pero no puede ser porque los intereses económicos de los operadores no siempre están alineados con los intereses de los usuarios y las empresas. Aún así, sin el mundo perfectamente conectado, siempre es mejor distribuir el dato para acercarlo lo máximo posible al usuario.
Ahora bien, ¿qué ocurre con ese dato? ¿Cómo de adecuado está securizado? ¿qué garantías tenemos de los proveedores de Cloud sobre la no intromisión en mis sistemas? ¿cuánto de sensible es mi dato a ser sustraído o accedido?¿Existe una política clara de seguridad con SLA’s (Service Level Agreement) para los datos que vamos a llevar al Cloud? Tenemos dudas de que así sea. Es cierto que, teniendo presente esta sensibilidad, siempre podemos ofrecer desde ICM soluciones que aproximen la seguridad a un punto deseado, pero no es ni fácil, ni efectivo ni barato.
¿Y si mi dato es sensible?¿Y si mi dato debe estar protegido porque así me lo exige alguna ley de alguno de los países en los que opero?¿Cómo solvento esta situación?
No es fácil. Y sabemos que, normalmente, la solución pasa por buscar el equilibrio entre el cumplimiento de la legislación y de la rigidez de las reglas de seguridad y el interés de un negocio. Pero es un equilibrio difícil de conseguir.
¿Cómo solucionar esta situación?¿Es posible?
Sí, creemos que es posible. En ICM llevamos trabajando muchos años sobre Cloud (Amazon, Google, Azure, OVH, Terremark….) y sabemos cuáles son sus bondades. Pero hemos tomado conciencia también de sus carencias. Y éstas están básicamente en la seguridad. Esta conclusión nos hizo pensar sobre qué forma sería la adecuada entonces para proteger el dato, pero que el usuario tuviera una sensación de usabilidad correcta en cualquier lugar del mundo. Y creemos haberla encontrado. Para aquellos casos en los que es necesario proteger correctamente el dato, lo mejor es acercar el usuario al dato. ¿Cómo? Con escritorios virtuales o VDI’s.
¿Por qué los VDI’s son la solución?
Porque VDI’s es una tecnología que piensa en las políticas corporativas y en la protección del know-how del negocio. Porque VDI necesita un core potente y muy protegido alojado en un CPD (o varios en el caso que los ERP’s o los sistemas de negocio lo permitan) para luego servir escritorios con protocolos muy optimizados para cualquier tipo de calidad de conexión. VMware ha desarrollado un protocolo llamado PCoIP que hace un uso excepcionalmente óptimo del ancho de banda para mostrar sobre él escritorios virtuales. El usuario recibe una especie de “pantallazos” en su terminal (ThinClients de bajo coste, por ejemplo) que le dan la sensación de estar delante de un PC local. Pero no es así. Lo que se le presenta son imágenes simples en una frecuencia elevada para simular a una pantalla tradicional. Sin embargo, y aquí viene lo importante, el dato reside en un centro muy protegido y regulado por políticas corporativas de usuarios/grupos/carpetas/accesos.
En resumen, seguridad centralizada, auditoría constante de lo que ocurre con los usuarios, dato protegido y coste en comunicaciones muy reducido.
Esta concepto tecnológico no es nuevo, ni mucho menos. Los accesos Terminal Server eran habituales en muchas empresas. Equipos locales que se conectaban a herramientas corporativas en remoto pero que, en casos de distribuciones geográficas muy extensas, era un sistema que acababa degradando mucho la usabilidad y se volvían a entornos multinodo (replicar el ERP en diferentes puntos del mundo con la implicación que tenía en licenciamientos y/o mantenimientos). El salto cualitativo que ha llevado a cabo VMware y que en ICM llevamos implementando ya algún año es el protocolo PCoIP. Un protocolo que ha salvado todos los obstáculos que hasta ahora presentaba el RDP de Terminal Server.
Lo mejor de todo es que la solución de acercar al usuario al dato no es incompatible con acercar el dato al usuario. Como en todo, la solución nunca es única para todos los proyectos. Las soluciones se han de diseñar, probar y solo cuando todos los implicados estén satisfechos, implantarla.
Recordad, la tranquilidad pasa por buscar la mejor solución para cada necesidad.

Nubes Híbridas y Nubes Federadas

Escrito por: Iñaki Calvo

Y seguimos acuñando nuevos términos. Es un no parar. ¡Y los que están por venir!. Cierto es que la tecnología es dinámica y que, en nuestro sector, la cosas parece que se aceleran por momentos. Y realmente es una situación ilusionante y divertida. Pero también puede ser confusa y es la parte que más nos preocupa.

Sin ánimo de ser una especie de “evangelista” pero sí con ganas de poder ayudar a aclarar términos, redactamos esta entrada en nuestro blog por si a alguien le pudiera servir para entender todos estos nuevos términos que están apareciendo.

Empezamos por rescatar un par de conceptos históricos que nos ayudarán a entender los nuevos.

Virtualización: Imitar un entorno hardware real simulándolo por medio de un hipervisor (que es un gestor tanto de servidores virtuales como de funcionalidades virtuales) y que su virtud radica en la no dependencia del hardware que lo soporta, es decir, un servidor virtual puede seguir funcionando aunque parte del hardware que lo sustente deje de hacerlo. La virtualización es la base fundamental de todos los conceptos que vienen después.
Nube o Cloud: El paso siguiente y necesario a la virtualización y su ajenación del hardware. En este caso, el concepto Cloud o Nube lo que pretende es desvincularse ya no solo del hardware que sustentan los servidores sino el centro de datos donde reside el hardware mismo. Esta idea, que conlleva cierta controversia por la no ubicuidad, ha sido asumida por todo el sector como algo objetivo. Cloud es flexible, no ubicuo, transparente, escalable… Y aunque tiene matices, es la idea generalizada.

Hemos de admitir que estos dos conceptos tecnológicos tienen ventajas evidentes en cuanto a continuidad de servicio, escalabilidad, productividad, facilidad de gestión y administración. Pero también nos gustaría recordar que toda ventaja conlleva ciertos inconvenientes. En este caso existe una falta de control sobre la infraestructura que se usa por debajo, cierta indefinición administrativa que permita acotar costes o la preocupación incipiente de saber, como obligación, dónde se alojan nuestrosdatos.

Fruto de estas desventajas, los departamentos de IT de las empresas se plantean ciertas dudas respecto dónde externalizar sus datos o incluso sus cores de negocio. Les gustaría disponer de las ventajas de la virtualización en Cloud, pero deberían asumir los riesgos de sus desventajas. Fruto de esta situación, apareció una subdivisión del concepto Cloud: Cloud Pública y Cloud Privada. La diferencia entre ambas especificaciones del Cloud es saber quién controla la infraestructura que hay por debajo de la virtualización y dónde reside. La necesidad de cumplir con la obligación de tener localizado el dato, el sector evolucionó dando como solución un concepto Cloud Privado que consistía en ofrecer las bondades del Cloud pero con una infraestructura físicamente dedicada a un cliente y localizada en un centro de datos específico. Con esta situación el cliente disfruta de todas las ventajas y minimiza casi hasta cero las desventajas. Es verdad que tener una Cloud Privada implica unos costes fijos mensuales más elevados, pero por contra te asegura una dedicación de recursos que aporta tranquilidad.

¿El siguiente paso? Simple, unir las ventajas de las nubes privadas con las ventajas de la cloud pública. Es decir, hibridar las nubes. La idea, acertada a nuestro modo de ver, es proteger el negocio y los datos importantes en una Cloud Privada, y publicaciones con menos restricciones en una Nube Pública. Es muy fácil desplegar publicaciones en Amazon, o Cloudflare o Azure y simplemente sería un complemento a tu publicación desde la Cloud Privada. Eso sí, la conexión, si la ha de haber, debe estar muy bien protegida. Interaccionar entre Cloud Privada y Nube Pública es lo que se ha llamado Nubes Híbridas.

Por último, y aun como concepto no llevado a la práctica de forma generalizada, existen las Nubes Federadas que no es otra cosa que unir diferentes proveedores de Cloud (sean privados o públicos) y gestionarlos de forma unificada desde un orquestador supra-Cloud. Es un sistema que está en fase gestacional pero que comenzará a tener repercusión en el momento que aparezca un buen gestor de nubes de diferentes orígenes. No obstante, en ICM ya hemos hablado con anterioridad de este concepto cuando estaba en su fase alpha.

¿Y qué nos deparará el futuro? Ya tenemos ganas de verlo.

Manualizar el Cloud

Escrito por: Iñaki Calvo

Como concepto antagónico de “automatizar el Cloud”.

Y es que Cloud es lo mismo que automatización. Al menos en un principio. Y la automatización es buena, no hay duda. Generar procesos automáticos y scripts programados para no necesitar la capa humana siempre te desahoga de recursos. Y esta es su principal ventaja. Y quizás un poco de inconveniente. Es como aquel dicho popular que pregunta “¿y quién vigila a la policía?”. En la automatización queda siempre una pequeña duda sobre si fallara ésta. Es verdad que se puede prolongar la automatización para controlar la propia automatización, pero entraríamos en un bucle algo pernicioso para una buena gestión de procesos y recursos.

¿Y por qué manualizar? Bueno, en ICM creemos que no es bueno dejarlo todo en manos de la automatización. Nos gusta pensar que, por mucho que nos esforcemos en programar automatizaciones eficientes, nunca está de más “echarle un vistazo”. Y eso, valga lo absurdo, es muy de humanos.

ICM pretende ser el facilitador de los negocios corporativos. La criticidad de estos proyectos son incompatibles con la automatización absoluta. Y tiene su lógica. Al final, quien deposita su confianza en ICM, no creo que espere estar respaldado por un pool de automatismos muy complejo a los que le otorgas la continuidad de tu negocio. No lo creo. Creo que se espera que un buen puñado de técnicos de calidad estén mirando y revisando su plataforma. Y que revisemos los automatismos, claro está.

Y es que, el concepto Cloud, se está escapando de nuestro control. La automatización que las grandes corporaciones Cloud incluyen en sus servicios, no es en pro de la calidad del servicio prestado a sus clientes. Ni mucho menos. No digo que no lo tengan presente, todo lo contrario. Lo que quiero decir es que la automatización tiene una única prioridad y no es otra que el ahorro de costes o el aumento del margen de beneficios. Bien es verdad que existe solvencia en los servicios que suelen ofrecer. De hecho, esta solvencia vendría definida por la dimensión de la infraestructura (tener siempre de sobras) y los automatismos bien creados. Pero, al final, la prioridad de una empresa privada sometida a los designios de los mercados de valores no es otra que maximizar sus inversiones. De sentido común, vaya.

¿Qué ocurre cuando fallan los automatismos en estos proveedores Cloud? Sencillo. El caos. La automatización también ha llevado a comunicarse con los clientes de forma automática. No existe una conexión personal (o si existe es de forma muy excepcional) con los clientes. Los grandes operadores Cloud no son parte del negocio que acaban de traicionar. Ellos, se limitan a exponer la incidencia de turno, los problemas causados y listo. Ahí termina toda su responsabilidad. Y no es que vayan en contra de su descripción de servicio. Es obvio que ellos no tienen SLA’s, ni asumen responsabilidades, ni admiten penalizaciones… Y ni se os pase por la cabeza que asuman una responsabilidad derivada de la pérdida de vuestro negocio. Para eso no existe automatización. Pero lo explican en sus condiciones de servicio. Eso sí.

Ahora toca pensar: ¿En cuánto valoras tu negocio? ¿Cuánto cuesta cada minuto de pérdida de negocio? ¿Asumirías no poder dar una sola explicación a tus clientes?

Bienvenidos a ICM. Estamos para atenderte.

Storage dependiendo del servicio

Escrito por: admin

¿Storage dependiendo del servicio?

Muchas veces cuando se va al ritmo de la evolución tecnológica si uno se detiene por un momento y vuelve la vista atrás es cuando realmente se da cuenta de cuanto han cambiado las cosas. Más en concreto de cómo en temas de storage, que hasta hace dos días se basaba en servidores dedicados con una buena controladora raid y buenos discos (junto con algunas cabinas de discos para centralizar los datos y de cintas para realizar backups), ha cambiado por completo debido a la virtualización o al “cloud”.

En nuestro caso, ahora que mientras escribo estas lineas he parado un segundo para ver cómo hemos cambiado, se ha pasado a prácticamente  tener casi un tipo de storage por cada tipo de servicio o mejor dicho, de necesidad.

Veamos.

Para las VPS’s (Servidores basados en máquinas virtuales) solemos utilizar a nuestros grupos de HA (High Availability) de cabinas de discos Equallogic bajo iSCSI que son un todoterreno y la base sobre la que solemos partir, son nuestro core y tanto su rendimiento como sobretodo fiabilidad las tenemos más que comprobadas, a partir de aqui se abre el abanico de posibilidades.

Que las VPS’s necesitan más IOPS o mejor latencia? Pues nos vamos a storage local directo sobre las hojas blades con una buena controladora raid y discos a SAS a 15K o SSD, precisamente la misma solución en la que basamos nuestras infraestructuras de VDI para las workstations de los usuarios finales y donde evidentemente servidores críticos como Domain Controler, File Servers, … los tendremos en un storage con mayor tolerancia a errores.

Si se busca el rendimiento máximo incluso mayor que un raid de discos SSD debido a una aplicación que hace uso de I/O de forma criminal sin importar la tolerancia a fallos (el ejemplo más claro serían querys a bases de datos que necesitan generar muchas tablas temporales) inlcuso el bus SATA/SAS puede quedarse corto. Bien, no hay problema, ampliamos RAM en dicho equipo y utilicamos la RAM como disco duro local (Ramdisks).

Por lo contrario si queremos tener una infraestructura que pueda crecer en horizontal blanceando los servicios en N servidores (el ejemplo más claro podría ser un website donde los usuarios suben contenido y éste contenido tiene que ser accesible por todos los servidores web de la plataforma) entonces ya necesitamos un repositorio común de contenido accesible por todos, y ya puestos a pedir, tambien en HA para que nunca falle (o mejor dicho añadir algunos 9’s al SLA); pues para éste tipo de servicio/storage nos basamos en cabinas con cabezera NFS o SMB integrada donde a su vez podemos escoger entre volúmenes basados en raids SSD puros o bien híbridos (discos convenciales con discos SSD’s por encima para añadir una capa caché), los primeros podrían ser muy adecuados para todo tipo de proyectos y los segundos, sobretodo para proyectos con muchos GB’s de información donde los archivos no son demasiado peticionados o bien solo muy pocos lo son de forma simultánea (bancos de imágenes, videos, facturas,…).

Finalmente como a paranóicos pocos nos hacen competencia y queremos tener de serie backup de todo y recuperar contenido en cuestión de muy pocos minutos las cintas ya no nos sirven, para ello tenemos cabinas dedicadas de discos SAS y nSAS donde nuestros Veeams guardan allí los backups de todas las máquinas incluido su contenido y nos permiten recuperar en tiempo record desde un servidor virtual entero al completo hasta solo un arhivo suelto que éste contiviera.

Por supuesto esto es solo una parte de la historia, la escrita hasta hoy, el mundo del storage es uno de los que está evolucionando más rápido y pronto conceptos que hace tiempo que ya existen como SDS (Software Defined Storage) serán cada vez más utilizados en el día a día. A modo muy simple de explicarlo para aquellos que no lo sepáis, se trata de separar la capa de storage física creando via software un nuevo pool de recursos o infraestructura de discos, o para hacer un símil acorde con las tendencias y modas, el SDS sería el “hacer un cloud con todos los discos de todos los servidores o cabinas”.

Desde ICM donde estamos en una profunda renovación de la infraestructura implementando la red a 40G y 10G,  el storage de red será uno de los mayores beneficiados de dichas velocidades de transferencia donde el 1G era actualmente el cuello de botella. Esperamos pronto poderos dar noticias de nuestras pruebas con VMWare VSAN6 que esperamos implementar en los próximos meses, pero sin olvidar por supuesto, a actores tan importantes como Nutanix o SimpliVity que son capaces de dar dos vueltas de tuerca al concepto de SDS con sus soluciones hyper-convergentes y que los vamos siguiendo muy de cerca para ver su viabilidad de implementación en nuestra infreastructura.

ICM pasa a formar parte de la red de partners de CloudFlare

Escrito por: Jesús Martínez

CloudFlare

Hace unas semanas llegamos a un acuerdo con CloudFlare para formar parte de su red de partners. Para aquellos que no sepáis, CloudFlare es un servicio Web que principalmente sirve para:

  • Servir contenido cacheado mediante un CDN propio.
  • Securizar a nivel de aplicación mediante un WAF que se encarga de filtrar todas las peticiones HTTP que se lanzan a cualquier dominio.
  • Securizar a nivel de red todos aquellos ataques DDoS que muchas webs sufren.

CloudFlare Overview

Éstas son las virtudes que hemos valorado como más positivas pero además ofrece otras muchas funcionalidades más:

  • Alojamiento de DNS con la protección DDoS.
  • Optimización de ficheros CSS y JavaScript.
  • Estadísticas de visitas, así como información sobre tráfico

CloudFlare ganó notoriedad en 2013 cuando gracias a ellos, Spamhaus pudo mitigar un ataque que llegó a ser de 120Gbps, según se rumorea en la red, iniciado por Anonymous.

Para nuestros clientes, el servicio de CloudFlare está bastante indicado para aquellos sites que tienen previsión de distribución de visitas de fuera de Europa (mapa de peering en el mundo) y no tienen unas necesidades de configuración demasiado complejas. Si las reglas de caching son complejas y no pueden simplificarse a nivel de aplicación, se debe valorar entre éste y otros CDNs como CloudFront o MaxCDN, por ejemplo.

Éste es un resumen muy básico, lo importante es conocer cada proyecto, evaluar necesidades y cuellos de botella y aplicar soluciones.

ICM participa en el III Encuentro Hosters – Computing

Escrito por: Iñaki Calvo

El pasado 26 de Febrero ICM participó por primera vez en el III Encuentro de Hosters de España organizado por Computing. Ha sido la primera vez que participábamos y hemos sacado una impresión muy positiva tanto de los asistentes como de la organización y los participantes. Se trataron temas tan interesantes como la convergencia de la tecnología hacia un entorno de gestión y administración dominado por el software. Software Defined Storage (SDS), Software Defined Network (SDN), Software Defined DataCenter (SDDC)…. Realmente interesante.

Se añade el hecho que los participantes teníamos diferentes dimensiones de empresa, con diferentes tipos de servicios pero que, al final, a todos nos afectaba por igual la forma en que la tecnología estaba evolucionando.

Os animo a ver estas fotos y el siguiente video:

Informe sobre el estado del Cloud en Europa (by Interxion)

Escrito por: Iñaki Calvo

Nos ha llegado un informe sobre cómo está el mercado de Cloud versus a los servicios de hosting tradicional. Es un estudio muy interesante y que recomendamos su lectura.

La fuente original la podéis encontrar en la página web de Interxion. Haced click aquí

O si lo preferís, podéis descargarlo aquí: Evolution of the European Cloud Market_ES_2014