Archivo de la etiqueta: analytics

El clima cálido del Cloud Computing

touch

El cómputo en la nube ha dejado de ser tan sólo una tecnología a través de la cual se puede disponer de  aplicaciones, documentos y/o recursos almacenados en algún servidor de internet, para transformarse en una verdadera herramienta empresarial que se adapta a las necesidades de gestión de las compañías de manera inmediata y fácil, por lo que no requiere de grandes recursos de capacitación para su uso.

De acuerdo con datos de IDC, los servicios públicos en la nube crecerán a 647 millones de dólares para finales de 2013, y para 2016 representarán el 6% del gasto total en software y 26% del gasto total en hardware de infraestructura en las empresas.

Durante 2013, el concepto de Cloud aumentó en diversidad y granularidad. La palabra Nube dejó de ser un concepto individual y se convierte en un ingrediente de expresiones combinadas que reflejan mercados en sí mismos, como por ejemplo eMail en la Nube, Analytics en la Nube, o desarrollo de aplicaciones en la Nube.

Por otra parte, estudios realizados por Intel®, estiman que para 2015 habrá 15 mil millones de dispositivos conectados y más de 3 mil millones de usuarios en la red, por lo que se espera un aumento del 33% anual en la cantidad de tráfico de información global en los centros de datos. Esto superará los 4.8 zetabytes generados por año, esto es 3 veces el monto producido durante todo el año 2011. A estos niveles, cada usuario conectado generará cada día más de 4GB de tráfico de datos, equivalente al tamaño de una película con una duración de 4 horas en formato HD.

Lo anterior demuestra que la cantidad de datos que deberán ser almacenados aumentarán en alrededor de 50% anualmente, y con el fin de acompañar este crecimiento, se espera que el número de servidores en la nube supere el triple hacia el 2015. De esta manera, el clima de cloud computing se despeja e indica que el mercado continuará su desarrollo en la medida que el uso de la “nube” traiga beneficios en términos de ahorros en la operación y la habilitación de servicios con mayor agilidad. Se espera una fuerte explosión en el corto plazo.

Durante 2013 la nube se convertirá en una herramienta que dará mayor agilidad y diversidad a las corporaciones para su desarrollo estratégico, gracias a usos como correo, gestión de información, o el desarrollo de aplicaciones, todo a través de la nube y en un ambiente virtualizado.

Ahora bien, cualquier empresa es apta para implementar estrategias de cloud computing y sólo basta con buscar la optimización de las aplicaciones tecnológicas y una mayor agilidad en el procesamiento de la información. La decisión de las empresas pasa por un tema de costos y de madurez en el uso de mejores prácticas, así como el nivel de medición de los servicios que ofrecen y la información que necesitan compartir y almacenar para su gestión. En la medida en que las áreas de TI estén debidamente asesoradas y tengan una mejor visibilidad de los beneficios que se pueden obtener, entonces podrán considerar usar los servicios de la nube para hacer más eficiente la operación y obtener una mayor rentabilidad en los costos operativos.

Mucho se ha hablado de los beneficios que las empresas adquieren con el cómputo en la nube: incremento de productividad; agilidad en la logística de la empresa; facilidad para gestionar la información; eficiencia del trabajo colaborativo; ahorro de energía y espacio, mejoras en la seguridad del manejo de la información. Sin embargo, es un deber de quienes somos responsables de proveer la tecnología para el adecuado almacenamiento de información en la nube, compartir una serie de consejos para implementar una estrategia de cloud computing:

  • Objetivos: se debe tener claro cuáles son los servicios que se requieren subir a la nube
  • Identificación: qué tipo de nube es la ideal para el giro y necesidades de la empresa. Actualmente existen tres tipos de nubes, privadas (dentro de la misma institución), públicas (un tercero administra los servicios) e híbridas (mezcla de pública y privada), la cual pone especial énfasis en la seguridad de las redes de comunicación que unen las nubes públicas y privadas, por ejemplo, mediante sistemas de encriptación. La adopción de uno u otro tipo, depende de las necesidades de la empresa.
  • Comparación: Es necesario identificar a los proveedores y saber qué ofrece cada uno, así como quién maneja la mejor tecnología para otorgar el servicio.
  • Decisión: Tendremos que evitar guiarnos por el precio y concentrarnos en identificar qué proveedor es el que ofrece mejor soporte técnico y SLA (por sus siglas en inglés “Service Level Agreement”, Acuerdo de Nivel de Servicio). En la actualidad un servidor que utiliza tecnología de última generación, puede sustituir 15 servidores que tengan cinco años de uso, con la misma potencia y desempeño.

Queda claro cuáles son los objetivos de tener una estrategia de cloud,  pero aún existe escepticismo debido a la seguridad y protección de la información.  Sin embargo, el desarrollo de componentes en los servidores de los Data Center que funcionan para el resguardo físico de datos, han evolucionado para proveer mecanismos inteligentes que aumenten la seguridad no sólo a través del software, sino desde aquello que hace posible la tecnología misma, es decir, desde la arquitectura de los procesadores, que son el corazón del almacenamiento en la nube.

Tras analizar todo lo anterior, desarrolladores de tecnología estamos trabajando junto a clientes y diferentes sectores más allá de la industria de TI, en una iniciativa a la que se ha denominado Intel® Cloud Vision 2015  que diseñará e implementará un nuevo paradigma de nube basado en tres características:

  • Nube federal: permitirá a las empresas mover y compartir datos, comunicaciones y servicios a través de nubes internas y externas con interoperabilidad flexible a través de diferentes plataformas.
  • Automatizada: es decir una nube con servicios o recursos específicos, localizados y manejados con una mínima o cero intervención humana. A través de la automatización, se optimizan los recursos y el uso de energía al máximo, ya que también se posibilita el desplazamiento seguro de aplicaciones y recursos para mejorar significativamente la eficiencia energética de los data centers.
  • Nubes “centradas en el usuario”: nubes “Inteligentes” que se adaptan a PCs y dispositivos que detecten cierto tipo de aplicaciones, comandos y capacidad de procesamiento para optimizar completamente su experiencia en la red.

Con estos mecanismos y la nueva visión, ya no existe pretexto que valga para no subirse a la nube, pues mediante el desarrollo tecnológico se logra aumentar la certeza de que los activos informativos estarán seguros y que su gestión es confiable. De esta manera las áreas de TI de las corporaciones centrarán sus esfuerzos en garantizar la continuidad de su negocio (y no en implementar más estrategias informáticas), aumentando la velocidad y capacidad de respuesta, ahorrando  en consumo de energía y contando con un desempeño inteligente, junto a un retorno de inversión orientado a resultados.

Seguir leyendo El clima cálido del Cloud Computing

Intel revela que a cada minuto en la Internet son transferidos 639.800 GB de datos

internet

Una investigación divulgada por Intel dio a conocer números asombrosos en relación a Internet y sus usuarios. En tan sólo 1 minuto, 20 millones de fotos son vistas y 61.141 horas de canciones son escuchadas. Además, a cada 60 segundos son enviados 204 millones de correos electrónicos y son hechas 2 millones de búsquedas en Google.

En relación a las redes sociales, los datos continúan increíbles: a cada minuto 277.000 personas entran en sus perfiles de Facebook, se escriben 100.000 tweets y se reproducen 1,3 millones de videos en Youtube. Además, en 60 segundos, 20 personas son víctimas del robo de su identidad en la red y se disparan 135 virus letales para su computadora.

El estudio revela que el futuro crece de manera sorprendente, en el año de 2012, el número de dispositivos conectados fue igual al número da la población mundial. Y la previsión es que en el año de 2015 este número será el doble de la población del mundo. Además, en 2015 se llevará 5 años para ver todos los videos ya subidos en la red.

internet-1minuto

Big Data: un activo valioso para corporaciones

Con la globalización, la extensión virtual se hizo necesaria, además el incremento exponencial de datos en la última década despertó la atención de los expertos por una posible falta de espacio. En ese escenario, Big Data se presenta como un activo valioso para muchas organizaciones.

La capacidad de analizar y entender Big Data tiene un enorme potencial para transformar a la sociedad, ya que permite nuevos descubrimientos científicos, modelos de negocios y experiencias de consumo. Aun así, sólo una pequeña fracción del mundo es capaz de encontrar sentido en toda esta información debido a que las tecnologías, técnicas y habilidades disponibles actualmente son demasiado rígidas para los tipos de datos, o excesivamente caras para implementarlas.

El software de Big Data recoge todos los datos que una organización genera y permite a los administradores y analistas usarlos más tarde. En este sentido, son más escalables que las bases de datos tradicionales y los data warehouses.

Acerca de los mercados, aún es Norteamérica quien lidera el servicio de Big Data y le sigue Europa. Asia y América Latina están haciendo sus primeras grandes inversiones en el tema. La razón es que para poder aprovechar realmente el valor que genera esto, necesita tres cosas: un nivel de arquitectura tecnológica avanzada, demanda y el know how de parte del usuario. Habiendo dicho eso, también vale resaltar que la adopción de Big Data en estas últimas regiones y mercados será mucho más rápida que cloud computing.

El enfoque principal de Big Data a las empresas e industrias será cómo se agregarán los datos que provengan de múltiples fuentes. Otro frente será cómo se procesarán esos datos. Los requerimientos para poder hacerlo impulsarán arquitecturas que permitan procesar, simultáneamente, datos de distintos tipos y, lo más importante, de distintos niveles. Todo sobre la misma infraestructura de red y todo en tiempo real.

El data center cambiará de diseño en cuanto al armado de log servers, switches y el almacenamiento; y también generará modificaciones para el uso eficiente de estos recursos, entre ellos la energía requerida. Sin embargo, uno de los cambios de la arquitectura de red es mover la gran cantidad de datos que requerirá mayor performance y mayor ancho de banda.

Según Intel, personas y máquinas están produciendo información valiosa que podrá enriquecer nuestras vidas de muchas maneras, desde la extrema precisión en la previsión del mal tiempo hasta el desarrollo de tratamientos personalizados para enfermedades terminales. Intel se compromete a contribuir y dar soporte a la comunidad de código abierto para proveer a la industria una mejor base sobre la cual podrá extender los límites de la innovación y percibir la oportunidad de transformación de Big Data.

Intel invierte en investigaciones y en capital para generar avances en el ecosistema de Big Data. Intel Labs es la vitrina que incluye el desarrollo del Intel® Graph Builder para el software Hadoop de Apache – una estructura de código abierto para almacenar y procesar grandes volúmenes de datos en clústeres escalables de servidores, que surgieron como la plataforma preferida para la gestión de Big Data –, una biblioteca para transformar grandes conjuntos de datos en gráficos con el objetivo de ayudar a visualizar las relaciones entre los datos.

El Intel® Graph Builder es optimizado para la nueva Distribución de Intel® para ayudar a reducir el tiempo de desarrollo al eliminar la necesidad de desarrollar grandes cantidades de códigos personalizados. Mientras tanto, Intel Capital ha hecho grandes inversiones en tecnologías para el análisis de Big Data, incluyendo el 10gen del MogoDB Company y la proveedora de soluciones para el análisis de Big Data Guavus Analytics.