Entradas

Webinar sobre hiperconvergencia Simplivity – Vídeo

Video webinar hiperconvergencia simplivity

Ponemos a tu disposición el vídeo del útlimo webinar sobre la hiperconvergencia de la mano de Simplivity. Dale al play y disftútalo. Si tienes alguna duda, estamos a tu entera disposición.

Comparativa Hiperconvergencia Simplivity vs. Nutanix

Simplivity vs nutanix

Este mes ha sido el mes de Simplivity y la hiperconvergència, ya sea por su papel destacado en el pasado VMworld, o por la jornada del pasado día 11 “Descubre la hiperconvergència con Simplivity“, hemos hablado, y mucho, de las características de esta propuesta. Sin embargo, evidentemente Simplivity no es la única propuesta hiperconvergent del mercado. Otras propuestas como Nutanix suenan con mucha fuerza y compiten a un gran nivel. Es por este motivo que hemos creído interesante generar una comparativa entre estos dos fabricantes.

A continuación detallamos las principales diferencias entre las dos propuestas, centrando la atención en los aspectos más relevantes a tener en cuenta en un centro de datos:

Deduplicación

Debemos saber que existen dos tipos de deduplicación, In-line y en Background. En In-line la deduplicación se hace durante la escritura y Background o Post Proceso, se realiza a posteriori. Primero se escribe y luego ordena los datos del Sistema.

Nutanix hace deduplicación In-Line Únicamente para los datos en la flash (que son mínimos), el resto lo hace todo en post proceso. Que significa esto? Que Primero escribe y horas más tarde utiliza recursos del sistema para calcular qué bloques están duplicados, y se pueden comprimir, causando un impacto directo considerable al entorno durante estas tareas. Además para activar la opción de Deduplicación in-line, hay que reservar 32 GB más por nodo a esta función. Todo esto resta recursos globales que deberían ser utilizados por y para las máquinas virtuales, no por el sistema, por lo tanto es necesario dimensionar correctamente las máquinas para no quedarse corto.

Todo este proceso fue incluido en la solución por Nutanix como una opción “añadida a posteriori”, al igual que otros fabricantes como NetApp, Hitachi, etc, para poder decir en los catalogos y cuadros comparativos que ellos también ofrecen deduplicación y compresión en su sistema.

SimpliVity ha diseñado la solución desde el principio, pensando en cómo optimizar el proceso de deduplicación y compresión mediante potentes algoritmos diseñados para ser absorbidos por la tarjeta aceleradora,  por lo que el entorno ni se da cuenta ni se ve afectado, ya que cada bloque de información es escrito una sola vez y nunca más.

Simplivity vs Nuntanix

Backups

Nutanix ofrece “la posibilidad” de realizar copias basadas en snapshot, pero no ofrece la granularidad para recuperar archivos de usuario como solución de Backup. Para obtener esta función necesitamos licencias de terceros (Veeam, BackupExec, ARCSERVE) para poder hacer las copias locales, y lo mismo para realizar las copias remotas sin penalizar el ancho de banda WAN. Esto significa que si queremos optimizadores de WAN de Veeam, ARCserve, etc, deben ser appliances físicos o virtuales, adquiridos y licenciados aparte de la solución, lo que representa más gastos y menos hiperconvergència.

SimpliVity si ofrece de forma integrada la posibilidad de realizar backups, tanto locales como remotos, ya que los datos al estar deduplicados y comprimidos, ya estan optimizados para navegar a traves de la WAN. Por otra parte, los backups con Simplivity se realizan en cuestión de segundos, en cambio Nutanix no (primero deduplica y comprime después, por lo que es necesario copiar toda la VM)

Gestión unificada y global

Nutanix no está integrado con VMware, necesita una consola de gestión adicional (PRISM). En cambio Simplivity sí está completamente integrado con VMware, facilitando mucho la administración por parte de los técnicos y haciéndola mucho más transparente.

Nutanix vs Simplivity

Cluster mínimo

Al datacenter principal se necesitan 3 nodos de Nutanix para hacer un cluster, mientras que con una infraestructura SimpliVity sólo hacen falta 2. Hay que tener en cuenta que este punto puede implicar muchos gastos indirectos de licenciamiento, ya que a más nodos, más licencias serán necesarias .

Si se quieren 3 nodos en un datacenter, habrá una red de 10 GB con switching de 10 GB. Por el contrario, con Simplivity, si partimos de 2 nodos, los enlaces entre ellos se encuentran a 10 GB, sin necesidad de switches a 10 GB.

Resilencia o tolerancia a fallos

Nutanix no hace RAIDs cada nodo, sino RF2 (Replication Factor 2) que podríamos definir como un RAID pero a través de la red. Nutanix lo ve como una fortaleza, pero en realidad es una gran debilidad ya que si falla un disco de un nodo, necesita de los otros nodos para reconstruirse, y si por lo que fuera otro nodo está en mantenimiento, o sin conexión , el sistema puede fallar de forma total. SimpliVity, en cambio, tiene 2 discos HotSpare por nodo en el RAID 6 y 1 disco en el RAID 1 SSD, por lo que pueden fallar 3 discos para nodo sin que el sistema se vea afectado. Además, Simplivity tiene 2 discos SAS en RAID 1 de 10k rpm en la parte posterior donde se instala el ESX (y el OS de Simplivity). En cambio Nutanix tiene una ROM integrada en la placa, si ésta falla, el nodo cae.

Para verlo más claro, a continuación encontrará unos esquemas de un cluster de 4 nodos:

El clúster de 4 nodos SimpliVity soporta fallo de 12 discos sin pérdida del servicio ni datos

El clúster de 4 nodos SimpliVity soporta fallo de hasta 12 discos sin pérdida del servicio ni datos

El clúster de 4 nodos SimpliVity soporta fallo de 12 discos y un nodo sin pérdida del servicio

El clúster de 4 nodos SimpliVity soporta fallo de hasta 12 discos y un nodo sin pérdida del servicio

El mismo escenario con Nutanix contempla la protección ante el fallo de un disco

El mismo escenario con Nutanix contempla la protección ante el fallo de un disco

Pero no ante fallo de 2 discos algunas VMs dejarían de funcionar

Pero no ante fallo de 2 discos algunas VMs dejarían de funcionar

El mismo escenario con Nutanix hay protección ante el fallo de un nodo

El mismo escenario con Nutanix hay protección ante el fallo de un nodo

Pero el escenario Nutanix no soporta el fallo de un nodo y un disco

Pero el escenario Nutanix no soporta el fallo de un nodo y un disco

Conclusión

Una vez analizada la disponibilidad de Nutanix con RF2, la pregunta es: ¿Es esta la solución que a tener en cuenta para un entorno mínimamente crítico?

Como mejora Nutanix su disponibilidad y resilencia? Ofreciendo RF3. Y que supone esto? Una mayor utilización de recursos por parte de la solución, o dicho de otro modo, menos recursos libres para la producción y la capacidad de almacenamiento.

 

El tiempo se acaba, es hora de migrar a Windows Server 2012

Migracion ws

Microsoft dejará de dar soporte a su sistema operativo Windows Server 2003. Esta situación puede tener un impacto muy negativo en aquellas empresas que continúen utilizando este SO ya que, al no haber más actualizaciones del sistema por parte de Microsoft, la infraestructura de TI será menos estable y segura.

Aunque todavía quedan varios meses para realizar el proceso completo de migración de Windows Server 2003 a Windows Server 2012 R2, y que tanto Microsoft como HP, el fabricante con mayor cuota de mercado de servidores x86 del mundo, disponen de workshops y servicios destinados a que la migración sea un éxito, la realidad es que, una vez que pase el 14 de julio aquellas empresas que no hayan dado el salto a Windows Server 2012 se pueden encontrar con los siguientes problemas:

1 Incumplimiento de la normativa legal

Tras la finalización del soporte de Windows Server 2003, las organizaciones comprobarán que no son capaces de cumplir muchas normas y regulaciones propias del sector al que pertenecen. Como resultado, pueden perder volumen de negocio o pagar altas tasas por transacciones. Además, se pueden ver envueltas en sanciones, por lo que aumentará significativamente el costo de hacer negocios.

2 Aumento de los costes de mantenimiento

Los servidores antiguos con Windows Server 2003 elevarán el costo de los sistemas de detección de intrusos y los cortafuegos avanzados, pero además obligarán a segmentar la red de la empresa para aislar al resto de equipos.

3 Brechas de seguridad

Sin el apoyo continuo de Microsoft, las instalaciones virtualizadas y físicas de servidores con Windows Server 2003 no pasarán ninguna auditoría de seguridad. Al no existir una solución a vulnerabilidades del sistema, los hackers lo tendrán como objetivo preferido para sus ataques. Y por cierto, Microsoft Small Business Server (SBS) 2003 también se verá afectado.

4 Falta de nuevas funcionalidades

Llegado el 14 de julio, Microsoft deja de desarrollar y posteriormente liberar actualizaciones con nuevas funcionalidades del sistema. A modo de ejemplo y para ver el impacto que esto tiene, sólo en 2013 Microsoft liberó 37 actualizaciones críticas de Windows Server 2003 R2 bajo apoyo extra.

 

Hacia un nuevo modelo de TI

Además de todos los graves problemas a los que se enfrentarán las empresas si no comienzan el proceso de migración de Windows Server 2003 a Windows Server 2012 R2, no nos podemos olvidar de la oportunidad que este cambio supone a la hora de modernizar la infraestructura TI de la empresa.

Elementos clave como la virtualización, Big Data, Cloud Computing, así como la reducción de gastos, el aumento de la flexibilidad y la mejora de la experiencia del cliente y de los niveles de servicio en aplicaciones antiguas pasan necesariamente por Windows Server 2012 R2.

Y es que la nueva versión del sistema operativo para servidores de Microsoft ofrece capacidades multiservidor que hacen que sea más sencillo desarrollar las funciones y características de forma remota en servidores físicos y virtuales. Además, es posible agrupar unidades de disco para dividirlas en diferentes espacios que se utilizarán como discos físicos, con lo que ello supone en términos de ahorro de costes.

Una ventaja añadida es que para evitar los problemas provocados por un exceso de sistemas, Microsoft permite elegir entre cuatro ediciones de Windows Server 2012 en función del tamaño de la organización y de los requisitos de virtualización y cloud computing: Datacenter, Standard, Essentials y Foundation.

Las dos primeras tienen una licencia por procesador más otra de acceso de cliente (CAL por sus siglas en inglés) y las dos últimas, pensadas para empresas más pequeñas, tienen una licencia por servidor con límite en el número de cuentas de usuario; 15 por Foundation y 25 por Essentials.

HP ProLiant Gen8 en números: Motivos para trabajar con un líder

Hp en numeros infordisa

Trabajar con HP ProLiant Gen8 no sólo es trabajar con un producto líder, sino también es trabajar con un producto que demuestra día a día los motivos de su indiscutible valor. A continuación presentamos los puntos de vista más pragmáticos para trabajar con los servidores de HP:

 

Hasta 9 veces mejor rendimiento de carga de trabajo

De acuerdo con el Laboratorio de Rendimiento de HP, los algoritmos desarrollados por HP que utilizan tecnología de estado sólido optimizada, resultan más rápidos, y de mayor capacidad que los servidores ProLiant Gen8 en comparación con el G7. Las pruebas que utilizan DL380 G7 con SSD y un DL380p Gen8 con una configuración similar, y que ejecutan un sencillo volumen de trabajo OLTP de un 70% de escritura, un 30% de lectura i4 KB de block size. La misma carga de trabajo puede correr 9 veces más rápido con los Gen8.

 

3 veces más productividad del administrador

Basado en pruebas internas con un firmware online y una actualización del software del sistema, con HP SUM 5.0 vs HP SUM 4.2.

 

70% más de computación por vatio

Basado en pruebas de rendimiento internas de HP a través de un conjunto de aplicaciones que muestra una mejora promedio de rendimiento de más de un 65% sobre los ProLiant G6. Combinado con un 10% menos de potencia comparado con los ProLiant G6, esto resultaun 70% más de computación por vatio.

 

66% más rápido para la resolución de problemas

El tiempo de resolución de problemas es un 66% más rápido para los casos de apoyo iniciados por HP Insight Remote Soporte en comparación al soporte tradicional por teléfono.

 

Conseguir el ROI en tan sólo 5 meses

Basado en pruebas y cálculos internos de HP con servidores ProLiant DL360p Gen8 comparados con los HP ProLiant DL360 G5 y G6. El ROI (Retorno de la inversión) con ProLiant DL360p Gen8 es de 5 meses. Sin embargo, el ROI, los costos operacionales y el costo total, puede variar según la configuración, entorno y país del que estemos hablando.

 

Horas de tiempo de inactividad del servidor reducido en una media de más del 90%

Según indica el informe “Business Value of Blade Infraestructuras” de IDC patrocinado por HP.

 

Listo para desplegar con un 93% menos tiempo de inactividad

Basado en pruebas de HP con firmware totalmente online y actualizaciones de software de sistema comparados entre HP Smart Update Manager (SUM) 5.0 con HP SUM 4.2, el tems de cambios para entornos blade, se reduce de 8 horas a 20 minutos.

 

Reducción del tiempo de acceso para instalar o quitar componentes hasta un 60%

Basado en estudios de ingeniería de HP comparando los servidores HP ProLiant DL380 G7 y HP ProLiant DL380 Gen8.

 

Aumento del 45% en los requerimientos de capacidad de almacenamiento cada año

Basado con el estudio IDC Q3 DSS Almacenamiento Previsión de Mercado.

 

Reducción del consumo de energía en un 10%

Basado en pruebas internas de HP, el ahorro de energía del 10% proviene de una combinación de: (1) reducción del 20% en el consumo de la memoria del sistema de operativo HP SmartMemory a 1.35v DIMM en comparación los 1,5 v anteriores; (2) reducción del 30% en la potencia del ventilador del sistema como resultado de la tecnología ProLiant Sea of Sensors; y (3) mejora de un 5% en la eficiencia de energía del sistema proporcionado por las nuevas fuentes de alimentación ProLiant Gen8 eficientes en un 94%. El ahorro total de energía incluye tanto la energía de los servidores como la energía necesaria para la refrigeración del servidor. La comparación se ha hecho entre los HP ProLiant Gen8 y una configuración similar con ProLiant G6.

 

Más de 150 innovaciones de diseño

Cambios en diseño y características documentadas por los equipos de HP ProLiant.

¿Quieres más información sobre HP ProLiant Gen8?

Contacta con uno de nuestros asesores y te demostraremos como HP ProLiant Gen8 és una buena opción para tu instalación

Regalito del mes: HP ProLiant Gen8: los servidores más inteligentes

Regalito del mes infordisa

Descarga ahora el ebook sobre los servidores ProLiant Gen8, los servidores más inteligentes del mundo. En este ebook podrás descubrir las características más destacadas de los servidores ProLiant de HP y comparar entre diferentes modelos de servidor. Dentro del ebook, encontrarás la siguiente información:

HP ProLiant Gen8

  1. Los fundamentos de una nueva generación de data centers
  2. Selección del mejor servidor HP ProLiant Gen8 para tu empresa
  3. Comparación entre las diferentes características de servidores HP ProLiant Gen8

[freebiesub download=”http://www.infordisa.com/wp-content/uploads/2014/07/4132002_eg_proliant_ebook_en-us.pdf”]

¿Qué es la virtualización?

Que es virtualitzacio

La virtualización es la creación de una versión virtual (en lugar de real) de algo, como un sistema operativo, un servidor, un dispositivo o un recurso de la red. Si alguna vez has tenido que dividir un disco duro en diferentes particiones, es muy probable que entiendas mejor el concepto. Una partición es la división lógica de un disco duro, para acabar creando dos o más discos duros diferentes. Es decir, que de una unidad física, sacamos varias virtuales.

La vritualització de un sistema operativo, consiste en utilizar un software para permitir que un elemento de hardware gestione diferentes imágenes de sistemas operativos al mismo tiempo. Esta tecnología comenzó a utilizarse con ordenadores de gran tamaño hace dàcades, para permitir a los administradores, ahorrar recursos y procesamiento, y optimizar el recurso físico.

En 2005, el software de virtualización comenzó a popularizarse rápidamente, y convirtiéndose en un recurso en expansión tal, que nadie había imaginado. Dentro de este concepto, dividimos cuatro sectores muy populares y que permiten grandes ventajas: la virtualización de redes, virtualitazció de almacenamiento, virtualización de servidores y la virtualización de escritorios.

  • Virtualización de redes

    La virtualización de redes es un método que permite combinar los recursos disponibles de una red gracias a la división del ancho de banda disponible desde diferentes canales, y la posibilidad de poderlo asignar a un servidor o dispositivo concreto en tiempo real . La intención de la virtualización en este caso es la de ocultar la complejidad real de la red dividiéndola en diferentes partes más gestionables.

  • Virtualización de almacenamiento

    La virtualización de almacenamiento consiste en la agrupación de espacio físico de diferentes dispositivos de emmagatzemamennt, y fusionarlo en un aparente único dispositivo, que normalmente es gestionado desde una consola central. Este sistema de virtualización permite siempre tener un recurso de almacenamiento disponible, independientemente del estado físico de los discos, ya que si uno falla, la infraestrctura balancea la carga, permitiendo al personal técnico, repararlo rápidamente.

  • Virtualización de servidores

    La virtualización de servidores consiste en esconder los recursos físicos de los servidores (número de servidores, procesadores, sistemas operativos, etc) a los usuarios finales, a fin de facilitar la comprensión y trabajo a los usuarios, sin tener que preocuparse de detalles complejos de la infraestructura. Además, permite aumentar la capacidad de los mismos servidores, compartir los recursos rápidamente, y facilitar la escalabilidad del sistema informático para crecimiento o decrecimientos futuros.

  • Virtualización de escritorios

    La virtualización de escritorios y utilización de escritorios vrituals (VDI), consiste en la eliminación del concepto de terminal / escritorio dedicado, por un sistema de escritorio proporcionado por el servidor. Esto permite suprimir gran cantidad de gastos de la red (actualización de sistema operativo, mantenimiento de hardware, antivirus, etc) y centralizar toda la gestión en único punto, el servidor. Es éste el que dará acceso a cualquier usuario a un escritorio personalizado, con las capacidades compartidas del servidor (como la conexión a internet, o la potencia de máquina) y desde cualquier dispositivo o ubicación. Se trata del sistema más óptimo de trabajo, donde el servidor se convierte prácticamente en el único recurso informático de la empresa.

La virtualización es ya una tendencia creciente y en expansión, gracias en parte a la necesidad de optimizar el gasto fruto de al crisis económica. Se puede mirar la virtualización como una simple opción informática, pero desde Infordisa, tenemos claro que se trata de la dirección a seguir. Históricamente la informática ha buscado siempre un mayor rendimiento y menor gasto paralelamente, y la virtualización es el salto a la autopista del rendimiento y el retorno de la inversión. El plantejamnet nube, tanto popular y básico hoy en día, no es más que la virtualización de un sistema, ubicado en un lugar más seguro y fiable, el datacenter.

Os animamos a comprobar las enormes ventajas que supone este planteamiento, y el gran ahorro de gasto implícito en la reducción de recursos, mantenimiento y gestión que aporta un sistema virtualizado.

Escritorios virtuales. 10 pasos para hacer el cambio

Escritorios virtuales1

Actualmente, según CISCO, más de la mitad de los trabajadores (52%) utilizan tres o más dispositivos para trabajar, y muchos de ellos llevan sus propios dispositivos a la feinal. Esta dinámica de tra, ha generado unos nuevos planteamientos de infraestructura TIC, relacionados con la seguridad de los datos, el control de gastos y la administración de imágenes y terminales.

Gracias a la virtualización de escritorios (escritorios virtuales), podemos proporcionar a los usuarios un lugar de trabajo bajo demanda y preparado para ser ejecutado desde cualquier dispositivo y desde cualquier parte del mundo. Si se está planteando implementar una infraestructura de escritorio virtual (VDI), recomendamos tener en cuenta estos consejos.

 

1

Analizar los roles
y necesidades de los usuarios

Para conseguir una buena implementación, es necesario crear grupos de usuarios con modelos y requisitos similares para las diferentes utilizaciones del escritorio. Entre las consideraciones a tener en cuenta, podemos destacar:

Tipos de usuarios: Divididos según sus tareas, o cargos.

Requisitos de movilidad: Entre los que deben tener acceso, acceso móvil y sin conexión.

Requisitos del usuario: Los que necesitan escritorio dedicado, aplicaciones personalizadas o lo que requieren instalar aplicaciones.

Esto nos permitirá definir el tipo de escritorio virtual y escoger entre dedicado y flotante. Definiremos también varios depósitos de máquinas virtuales podemos crear, también si los usuarios se conectarán en el escritorio virtual, un escritorio físico centralizado o un terminal que se administra con un escritorio virtual. Y por último, también hay que tener en cuenta que vamos a hacer para mantener los datos de los usuarios cuando éstos no estén conectados.

Seguridad de datos a los dispositivos móviles

Seguridad mobiles infordisa cloud

Cuando hablamos de movilidad uno de los principales inconvenientes que pueden poner a las empresas a la hora de adoptar estas tecnologías o adaptar la empresa a la misma, es la seguridad. Hasta ahora la empresa siempre ha estado convencida de custodiar los datos en sus instalaciones, dentro de un recinto controlado. La verdad es que en su mayoría, las pérdidas y fugas de datos se han dado siempre a las mismas empresas.

¿Dónde están mis datos más seguras, en mi empresa o en la nube?

Uno de los miedos de las empresas es a ceder el control de los datos. Las políticas de movilidad muchas veces nos llevan a adoptar una aplicación cloud , que está en la nube , en servidores como los que ofrece Infordisa y que no están totalmente bajo su control sino que se encuentran en datacenters o centros de datos . Sin embargo , nuestra instalación en el datacenter, garantiza unos niveles de servicio o SLA del 99,9% , algo muy difícil de conseguir en las mismas empresas de nuestros clientes .

Aunque su empresa busque un SLA tan alto , probablemente la inversión que debería realizar para conseguir estas características de servicio , sería tan elevada que no le compensaría . Ya que tener el servidor siempre disponible significa redundancia , de hardware y de sistemas , pero también de suministro eléctrico , adquiriendo grupos autónomos que garanticen que los equipos funcionarán aunque tengamos un apagón .

Por otra parte , adoptar una aplicación cloud a los servidores de Infordisa , implica también que no debemos preocuparnos por cuestiones como copias de seguridad , mantenimiento del sistema , actualizaciones , etc . Un servicio que nos supone mucho tiempo que de esta manera tendríamos incluido en una pequeña cuota mensual de servicios en la nube .

Pero también la tranquilidad de saber que los datos no dependen de un dispositivo , es decir , que si perdemos nuestro smartphone o tablet, podremos seguir trabajando sin ningún impacto en nuestro negocio . Como mucho bastará con cambiar las contraseña de acceso al servicio para quedarnos más tranquilos .

Políticas de control de dispositivos móviles y pérdida de datos

Sobre todo el teléfono móvil, pero también la tablet , son dispositivos muy fáciles de perder o extraviar , los llevamos siempre con nosotros , no nos separamos de ellos , y sin embargo , son los dispositivos de la empresa que más sufren pérdidas o robos . Y aquí el problema no está tanto en sustituirlos por otros nuevos , que también, sino en como tener a salvo los datos que contenían .

Por ello es necesario implementar políticas de control de los dispositivos , para que sepamos en cada momento , qué información contienen , como podemos acceder y sobre todo , como eliminar o bloquear el acceso a dicha información siempre que estemos en una situación de emergencia . Un método muy sencillo es utilizar una aplicación de localización de dispositivos , que nos permita bloquear el mismo en el caso de que hayamos sufrido una pérdida .

Estas políticas de control evitarían también que el usuario instale ciertas aplicaciones que podrían comprometer la seguridad del dispositivo , de modo que sólo contendría las aplicaciones necesarias para trabajar y poco más , quedando a discreción de la empresa si se o no lo que pueda requerir el usuario .

Cifrado de los datos en los smartphones y tablets

De todas formas una de las cuestiones básicas que debe implementar la empresa para mantener sus datos seguros es el cifrado. Se trata de que ante cualquier contratiempo los datos que tiene el dispositivo móvil no queden expuestos a ojos de terceros, tanto los datos de la memoria interna como de la tarjeta externa en caso de disponer de una de ellas.

El cifrado de datos es fácil de implementar y es transparente para el usuario. Para ello es necesario que la política de desbloqueo del dispositivo tenga una contraseña, de modo que no se pueda desbloquear por deslizamiento u otros métodos muy poco seguros. De esta manera todos los datos de aplicaciones y clientes que podemos tener en el teléfono quedan preservados.

Borrado remoto de datos

La otra opción básica si llevamos datos confidenciales dentro de la tablet o el teléfono inteligente es el borrado remoto . En este caso, lo que nos permite es eliminar todos los datos del dispositivo, lo que haremos una vez hemos confirmado la pérdida o robo del mismo. El paso intermedio al borrado es el bloqueo .

Esta opción es muy importante , ya que podemos acumular hoy en día propuestas de futuros clientes , planes estratégicos de la empresa , contraseñas a otros servicios , accesos VPN a la propia empresa , etc . En la pérdida del dispositivo puede suponer que estos datos en las manos de la competencia obliguen a modificar la estrategia de la empresa .

Con las debidas precauciones la movilidad no supone ningún problema para la empresa a nivel de seguridad , es más , mejora notablemente la calidad y flexibilidad del trabajo en muchos aspectos . Pero la verdad es que necesitamos un plan de contingencia para saber cómo actuar ante cualquier incidente de seguridad que pueda surgir en un momento dado .

A Infordisa trabajamos constantemente para dar cobertura a estas necesidades y asegurar la movilidad de nuestros clientes a la nube . Una buena conexión a los datos , y el correcto tratamiento de los mismos , multiplica la flexibilidad a la hora de trabajar y mejora su calidad, por lo que acaba repercutiendo en la productividad de todos los trabajadores de la empresa .

Historia del almacenamiento informático

Historia emmagatzemament cloud

La humanidad siempre ha tratado de encontrar formas de almacenar la información . Actualmente, las personas se han acostumbrado a la terminología tecnológica , tales como CD -ROM , llave USB y DVD. Los disquetes y cintas de casete se han olvidando a excepción de los más nostálgicos . Las generaciones posteriores simplemente se han olvidado de la tecnología que ayudó a evolucionar los sistemas informáticos de almacenamiento eficientes que todos usamos cada día. Con el tiempo la humanidad continúa trabajando para innovar y crear nuevas posibilidades .

Actualmente los innovadores , seguidos de una gran mayoría de empresas y particulares , han descubierto la nube o cloud , y las enormes ventajas en cuanto a movilidad y ahorro , que aporta esta tecnología . Después de casi 100 años de historia de almacenamiento informático , estamos ante la solución más óptima en cuanto a la posibilidad de guardar información . Finalmente no dependemos de llevar físicamente con nosotros esta información , sino que la podemos tener disponible todo el mundo y sin limitación de espacio . Fácil , rápido , escalable y económico . Estas son las claves del éxito del almacenamiento en la nube .

A continuación , rehacemos es el camino que nos ha llevado hasta donde estamos , y el que marca los pasos de lo que vendrá .

1928

Cinta magnética

Fritz Pfleumer , en ingeniero alemán , patentó la cinta magnética en 1928. Este invento estaba basado con el cable magnético de Vlademar Poulsen .
1932

Tambor magnético

Un inventor austríaco, G. Taushek , inventó el tambor magnético en 1932, basado en el descubrimiento anterior de Fritz Pfleumer.
1946

El tubo de Williams

El profesor Fredrick C. Williams junto con Tom Kilburn , desarrollaron el tubo de Williams en la Universidad de Manchester . Se utilizaba para almacenar electrónicamente datos binarios . Fue la memoria RAM de los primeros ordenadores de programa almacenado.
1948

Selectrón

El selectrón es una válvula termoiónica capaz de actuar como memoria de acceso aleatorio ( RAM ) , una forma temprana de la tecnología digital memoria de computadora fue desarrollado por Jan A. Rajchman y su grupo en la Radio Corporation of America.
1949

Memoria de línea de retardo

Una memoria de línea de retardo es un dispositivo capaz de almacenar datos aprovechando el tiempo que necesita una señal para propagarse por un medio físico.
1950

Núcleo magnético

El núcleo magnético es un componente fundamental de widgets eléctricos como electroimanes , transformadores , inductores o de cualquier máquina eléctrica , alrededor del cual hay un arrollamiento de hilo conductor . Su función es la de incrementar la fuerza y los efectos del campo magnético que produce la corriente eléctrica
1956

Disco duro

Un disco duro incluye discos giratorios , que almacenan bits de información digital de una superficie plana metálica.
1963

Cinta de cassette

Philips creó la cinta de cassette en 1963 . Originariamente lo creó para máquinas dictadas , sin embargo se convirtió en un método de distribución de música . En 1979 , Sony creó el Walkman y contribuyó a transformar la utilización del cassette, convirtiéndolo en algo popular y muy utilizado.
1966

DRAM

La Dynamic Random Access Memory ( DRAM ) es una memoria electrónica de acceso aleatorio , que se usa principalmente en los módulos de memoria RAM y en otros dispositivos , como memoria principal del sistema . Es una memoria volátil , es decir cuando no hay alimentación eléctrica , la memoria pierde la información que tenía almacenada.
1968

Twistor Memory

Bell Labs desarrolló Twistor Memory enrollando cinta magnética alrededor de un cable eléctrico . Se utilizó entre 1968 y finales de 1970 , antes de ser totalmente sustituido por chips de RAM
1970

Memoria de burbuja

La memoria de burbuja ( Bubble memory ) es un tipo de memoria de ordenador de almacenamiento no volátil que utiliza una película de material magnético de pequeño espesor que contiene pequeñas zonas magnetizadas conocidas como burbujas , que almacenan un bit de datos cada una.
1971

Disco flexible de 8″

IBM comenzó a desarrollar un sistema económico de almacenamiento de datos . Como resultado , nació el disquete e 8 ” . Un disco , portable y almacenable , hecho de un film magnético protegido por plástico , que permitía guardar información de manera más rápida y fácil.
1976

5.25″ Floppy

Allan Shugart desarrolló el Disco de 5,25 ” en 1975 . Shugart creó un disco más pequeño que el de 8 pulgadas era demasiado grande para ordenadores de sobremesa normales . Los discos de 5,25 “tenían una capacidad de 110KB y eran más rápidos y baratos que sus predecesores.
1980

CD

James T. Russel creía que se podía utilizar la luz para almacenar música . En 1975 , Philips contrataron a Russel y le pagaron millones de $ para que desarrollara el Disco Compacto (CD ) , y lo acabó consiguiendo en 1980, cuando lo presentó a Sony.
1981

3.5″ Floppy

El disco de 3,5 “tenía bastantes ventajas frente a su predecesor . Tenía una parte rígida de metal que cubría y hacía más resistente el film magnético de su interior.
1984

CD Rom

El CD -ROM , también conocido como Compact Disk Read -Only Memory , utilizaba el mismo formato físico que el CD de audio para almacenar información . El CD -ROM codifica pequeñas partes de información bajo la superficie de plástico del disco , lo que permite grandes cantidades de fecha almacenada.
1987

DAT

En 1987 , Sony creó el Digital Audio Tape ( DAT ) . Rediseñó la cinta de cassette de audio con una cinta magnética de 4 milímetros , dentro de una cobertura protectora.
1989

DDS

Sony y Helwett Packard crearon el formato Digital Data Storage ( DDS ) para almacenar y guardar información de un ordenador , a una cinta magnética . El formato DDS evolucionaba de la tecnología DAT.

1990

MOD

El Magneto – Optical Disc , apareció en el sector de la tecnología de la información en 1990 . Este formato de disco óptico , utilizaba una combinación de tecnologías ópticas y magnéticas para almacenar información digital.
1992

MiniDisc

El MiniDisc podía guardar todo tipo de información , sin embargo , predominaba el sector del audio . La intención del MiniDisk era la de sustituir el cassette de audio antes de que fuera eliminado en 1996.
1993

Compact Flash

El CompactFlash ( CF ) , también conocido como “Flash drives ” , se utilizaba como memoria interna para guardar información . Los dispositivos CF utilizaban en cámaras digitales y ordenadores para guardar información.
1994

Zip

El dispositivo ZIP se popularizó en 1994 para guardar archivos . Era un sistema de disco de un solo uso proporcionado por Iomega.
1995

DVD

El DVD se convirtió en la futura generación de almacenamiento en discos . Era un disco con mayor capacidad , más rápido y utilizado para información multimedia.
1995

SmartMedia

Toshiba sacó al mercado SmartMedia en 1995 , una tarjeta de memoria flash , con la intención de competir con Minicard y ScanDisk.
1995

CD-RW

El Compact Disc Rewritable , era una versión del CD- ROM con la posibilidad de ser regrabable , lo que permitía a los usuarios guardar información sobre información previamente grabada.
1997

Multimedia Card

La Multimedia Card ( MMC ) utilizaba una tarjeta de memoria flash para almacenar información , y salió al mercado de manos de Siemens y ScanDisk en 1997.
1999

Microdrive

Un USB Flash Drive , utiliza memoria NAND -type flash para almacenar . El dispositivo se conecta a una interfaz USB a cualquier ordenador.
2000

SD Card

La tarjeta Secure Digital ( SD ) incorpora encriptación DRM que permite almacenar grandes archivos . Las tarjetas SD estándar miden 32mm x 32mm x 2,1 mm , y se suelen utilizar para guardar información para dispositivos móviles.
2003

Blu Ray

El Blu -Ray es la nueva generación de discos ópticos utilizados para guardar vídeo en alta definición y densidad de información. El Blu -Ray recibe el nombre del láser azul que permite almacenar más información que un DVD estándar.
2002

xD-Picture Card

Olympus y Fujifilm , crearon la xD- Picture Card en 2002, que se utilizaba exclusivamente para cámaras Olympus y Fujifilm
2004

WMV-HD

El Windows Media High Definition Video ( WMV – HD ) es una codificación de vídeo para Microsoft Media Video . WMV -HD es compatible con ordenadores con plataforma Windows , Xbox y PlayStation.
2005

HD-DVD

El High- Density Digital Versatile Disc ( HD -DVD ) es la versión de Blu -Ray que promocionaban Toshiba , NEC y Sanyo.
2008

Holographic

El futuro de la memoria del ordenador reside en la tecnología holográfica . La memoria holográfica puede almacenar datos digitales a alta densidad en el interior de los cristales y los foto – polímeros . La ventaja de la memoria holográfica reside en su capacidad para almacenar un volumen de medios de grabación , en lugar de hacerlo sólo en la superficie de los discos . Además , permite que se produzca un aspecto 3D llamado volumen de Bragg.
2014

Emmagatzemament al núvol

El almacenamiento en la nube es la actual revolución en cuanto a almacenamiento de información . Ya sea como backup o como repositorio de información , la nube ( cloud ) aporta unas características de movilidad , flexibilidad y escalabilidad , que ninguno de sus predecesores había desarrollado . Gracias al fácil acceso a Internet desde todas partes el mundo , podemos disponer de infinitos volúmenes de información sin tener en cuenta el dispositivo , el volumen o la ubicación .

Gracias a estas ventajas , el almacenamiento en la nube o Cloud Computing son la solución ideal para todo tipo de empresa y organización . En un mundo globalizado donde la exportación y movilidad es una realidad presente , los dispositivos y sistemas de información deben adaptarse a las necesidades de los usuarios , facilitando el trabajo y mejorando la experiencia de trabajo en todo momento.

¿Conoce los servicios en la nube?

Le invitamos a descubrir los productos y servicios que ofrecemos, ya que compruebe cómo pasar a la nube su instalación es una gran inversión.

 

Imagen: Gus Morais

Virtualización de aplicaciones con Citrix XenApp

Virtualizacion aplicaciones citrix xenapp

La implementación de aplicaciones distribuidas de la manera tradicional se ha convertido en una acción costosa y compleja. La mayor parte de los esfuerzos se acaban destinando a mantenerse al día con actualizaciones y “parxejats” de nuevas versiones de las aplicaciones a la gran cantidad de dispositivos. Esto acaba provocando que muchos de los usuarios no tengan las versiones correctas de las aplicaciones. Además, las aplicaciones y los datos almacenados en los dispositivos, no son seguras y causan conflictos reduciendo la velocidad, requiriendo correcciones o disminuyendo la productividad. Como resultado, los gastos en TIC siguen aumentando, mientras que los técnicos son cada vez menos capaces de asegurar los datos, mantener una buena experiencia para el usuario o alcanzar las expectativas.

Citrix XenApp

Citrix XenApp es una solución de virtualización de aplicaciones bajo demanda, la cual controla las aplicaciones virtualizadas al servidor del datacenter y proporciona inmediatamente a los usuarios allí donde se encuentren, independientemente del dispositivo con el que trabajen. XenApp reduce los gastos de la gestión de aplicaciones hasta un 50%, aumenta la capacidad de respuesta entregando las aplicaciones a los usuarios, y mejora la seguridad de aplicaciones y datos. XenApp nos permite gestionar de forma centralizada una sola instancia de cada aplicación y entregarla a los usuarios tanto para una utilización online u offline, proporcionando una gran experiencia. Además, por parte del fabricante, hay que decir que Citrix lo ha probado con más con más de 25 millones de aplicaciones en producción y con mas 100 millones de usuarios de todo el mundo.

Simplificación de la gestión TIC

XenApp centraliza las aplicaciones en nuestro datacenter para hacerlo más fácil para nuestros técnicos la implementación y gestión de las aplicaciones cada usuario allí donde se encuentre, y permite una escalabilidad bajo demanda para ajustarse a todas las necesidades cambiantes del cliente. La virtualización de aplicaciones elimina la necesidad de probar y validar las aplicaciones con costosas y laboriosas pruebas de compatibilidad, y reduce los gastos de apoyo posterior a la implementación. La monitorización automática avisa rápidamente a nuestros técnicos si se llega a los máximos de rendimiento, para que de la manera más eficaz, podamos identificar y resolver los problemas.

Optimización de la distribución de aplicaciones

La virtualización de aplicaciones nos permite disponer de un sistema flexible de virtualización que selecciona dinámicamente el mejor método para ofrecer aplicaciones, basado en el usuario, la aplicación y la red. Las aplicaciones se ejecutan en el datacenter, y se entregan al usuario mediante protocolos de alta velocidad, a cualquier dispositivo. XenApp aísla cada aplicación para reducir conflictos entre las aplicaciones y permite a los usuarios acceder a las aplicaciones incluso cuando están desconectados. XenApp asegura que los usuarios tengan una experiencia consistente y de alta definición, sin importar la ubicación o el dispositivo.

Acelerar el rendimiento de las aplicaciones y la capacidad de respuesta

La arquitectura centralizada de la virtualización de aplicaciones, acelera el rendimiento de aplicaciones a través de cualquier conexión de red o dispositivo. Las tecnologías HDX aumentan el rendimiento de las aplicaciones hasta 15 veces y aseguran velocidades de LAN como las de cualquier otro lugar. XenApp ofrece nuevas aplicaciones a los usuarios en cuestión de segundos, y las actualizaciones de las aplicaciones, se llevan a cabo una única vez y se aplican automáticamente a los usuarios. Con la virtualización de aplicaciones, podemos asignar recursos para asegurar los más altos niveles de rendimiento para los usuarios y aplicaciones críticas.

Cómo funciona Citrix XenApp (En inglés)

 

Citrix XenApp revoluciona el despliegue de aplicaciones de Windows mediante la entrega de cualquier aplicación como un servicio centralizado on-demand

Características clave

  • Aplicaciones self-service

    El software XenApp de Citrix determina cuál es el método más óptimo y seguro para proporcionar aplicaciones a los usuarios basados ​​en las compatibilidades de cada dispositivo, permisos de los usuarios, estado de la red, estado de la conexión y perfil de seguridad. Las aplicaciones pueden trabajar de manera offline, o correr desde el datacenter y ser entregadas mediante un protocolo de alta velocidad cuando el usuario está online. Las aplicaciones están disponibles para los usuarios a través de una plataforma personalizable y fácil de usar, disponible 24 × 7.

  • Cualquier dispositivo, cualquier lugar

    Podemos virtualizar las aplicaciones y proporcionar a los usuarios acceso seguro a su software y datos corporativos, desde todo dipu de dispositivo o sistema operativo y un ordenador de sobremesa, un Mac, Thin Clients, o dispositivos móviles como iPhone, iPad, Windows Mobile o Android .

  • Experiencia de alta definición

    Las aplicaciones virtuales se proporcionan a través de alta disponibilidad y alta definición. La tecnología HDX proporciona una experiencia rápida, de avanzado rendimiento gráfico y buen rendimiento multimedia, independientemente de las capacidades del dispositivo utilizado. Los usuarios aseguran una experiencia sin fisuras, sin tiempo de inactividad y mayor productividad global.

  • Diseño seguro

    La tecnología XenApp de Citrix es la arquitectura más segura para proporcionar aplicaciones, ya que centraliza la entrega. Guarda toda la información en el datacenter, y únicamente transmite las actualizaciones de pantalla, los clicks del ratón y las pulsaciones del teclado. Podemos también definir los accesos a las aplicaciones, imprimir, definir políticas de almacenamiento y grupos de usuarios, que garantizan que la información siga segura.

  • Una única instancia

    Gracias a la virtualización de las aplicaciones de Citrix, eliminamos la necesidad de instalar o administrar aplicaciones a los dispositivos finales. La arquitectura centralizada permite almacenar, mantener y actualizar aplicaciones centralizados en el datacenter y entregarlas a la carta a los usuarios. Esto simplifica la administración, evita conflictos entre aplicaciones, hace que sea fácil para proporcionar actualizaciones en tiempo real y reduce significativamente los requisitos de modificaciones y actualizaciones.

  • Escalabilidad empresarial

    XenApp está probado para soportar más de 100.000 usuarios, escalar más allá de 1.000 servidores en una sola aplicación y garantizar 99,999% de disponibilidad de la aplicación. La monitorización y automatización de herramientas permite una respuesta rápida a las necesidades del negocio y de los usuarios.