Conocido también como la nube, servicios en la nube o computación en la nube .

El Cloud Computing es un paradigma que permite ofrecer servicios TI a través de internet y bajo demanda .

Hasta no hace mucho, si en tu empresa necesitabas servidores más potentes, más almacenamiento o pensabas en implementar un nuevo programa de gestión (ERP, CRM,…), lo normal era contactar con el informático y comprar el hardware o el software necesario, instalarlo y mantenerlo on-premise (en las instalaciones del cliente).

Con el Cloud Computing todo esto cambia, surge un nuevo modelo que permite fundamentalmente dos cosas:

  • Acceder al servicio bajo demanda : a través de la red, el usuario accede a un conjunto de recursos configurables (servidores, aplicaciones, almacenamiento, redes…) cuando lo necesita, pagando solo por los recursos que realmente utiliza.

  • Liberarse del mantenimiento y abstraerse de toda la infraestructura tecnológica que hay detrás de cada uno de los servicios. El usuario simplemente necesita un navegador web con conexión a la red para tener acceso a los servicios, despreocupándose totalmente de su mantenimiento.

¿Cuál es la relación entre la virtualización y el Cloud Computing?

La virtualización ya existía antes de que se popularizasen los servicios en la nube. El Cloud Computing es simplemente un ámbito más de todos los que utilizan la virtualización. 

Dicho esto, se puede afirmar que la virtualización es parte de la tecnología que emplea el Cloud Computing para su funcionamiento , ya que este se basa en la virtualización para poder ofrecer servicios alojados en la nube de forma optimizada. 

imagen14.png

Modelos de servicios cloud

En función del servicio que se ofrezca podemos hablar de distintos modelos:

  • 1

    IaaS (Infraestructura como Servicio) : en este modelo lo que se ofrece es disponibilidad de computación (CPU y Memoria RAM) y almacenamiento (GB) en base a las necesidades del usuario. De algún modo, pretende competir con la compra de hardware tradicional ya que permite alquilar recursos de computación y almacenamiento y pagar mensualmente en función de lo consumido.

  • 2

    SaaS (Software como Servicio) : hasta hace unos años el software (los programas) se compraba e instalaba en un servidor/ordenador para que los usuarios trabajaran sobre él. El SaaS es un modelo de distribución de software diferente. En este caso, las aplicaciones (o el software) son alojadas por la compañía o proveedor de servicio que las ofrece y se ponen a disposición del usuario a través de internet y a cambio de una cuota mensual.

  • 3

    PaaS (Plataforma como Servicio) : es un modelo de computación en la nube en el que un proveedor externo entrega a los usuarios un conjunto de herramientas de hardware y software por una cuota mensual. Esta solución está muy enfocada en un nicho, los desarrolladores de software, ya que les permite centrarse en sus proyectos y olvidarse de instalar y mantener el hardware y software interno que necesitan para trabajar.

telefonica_grafico (2).jpg

Modelos de despliegue cloud

Los proveedores cloud pueden ofrecer los servicios en función del modelo de despliegue:

Nube pública:

Los clientes (empresas o particulares) comparten los recursos tecnológicos. Es decir, el proveedor ofrece el mismo servicio a muchos clientes desde el mismo centro de datos de manera que comparten recursos (de almacenamiento, procesado de datos…).

Artboard 2 copia 13.jpg
Artboard 2 copia 14.jpg

Nube privada:

Son servicios en los que los recursos se entregan de forma exclusiva al cliente, que tiene el control sobre el servicio que alquila. El proveedor del servicio garantiza la separación de los recursos que alquilamos y lo que se alquila a otros clientes.

Nube híbrida:

Es una combinación de servicios en nube pública y en nube privada que se gestionan de forma centralizada. Puede incluso que se integren con servicios on-premise (localizados en las oficinas).

Artboard 2 copia 15.jpg

Principales Proveedores y Productos de Cloud Computing

Los proveedores de servicios en la nube son diferentes tipos de empresas que ofrecen  servicios de redes, infraestructura o aplicaciones comerciales en modalidad cloud. 

Actualmente hay 3 grandes empresas en el mundo cloud que ofrecen en esta modalidad servicios asociados a infraestructura (IaaS), plataforma (PaaS) y aplicaciones (SaaS):

Ejemplos de SaaS: Amazon WorkDocs, Amazon WorkSpaces, Amazon WorkMail…

Ejemplos de PaaS: Amazon Kinesis, Amazon Data Pipeline, Amazon EMR...

Ejemplos de IaaS: Amazon Route 53, Amazon VPC, AWS Direct Connect...

Ejemplos de SaaS: Correo, OneDrive, Power BI...

Ejemplos de PaaS: Azure App Service, Kubernetes, Cloud Foundry...

Ejemplos de IaaS: Virtual Machines, Containers, Networking...

Ejemplos de SaaS: GMail, Chrome, Drive...

Ejemplos de PaaS: App Engine.

Ejemplos de IaaS: Compute Engine, Cloud Storage, BigQuery...

Telefónica, Acens, Jotelulu, Salesforce, Arsys, Dropbox, Clouding.io…

Regiones y zonas de disponibilidad

Los servicios cloud generalmente estás disponibles a nivel global. Con el fin de poder ofrecer estos servicios a nivel óptimo, los proveedores definen algunos conceptos operativos y/o geográficos para que el usuario pueda elegir lo que más le convenga en función de sus necesidades técnicas y normativas:

  • bullet

    Región . Se denomina región al conjunto de data centers (o centros de datos) ubicados en un perímetro determinado y conectados a través de una red regional que determina la latencia. Cada región engloba varias zonas de disponibilidad , las cuales, generalmente, están separadas físicamente dentro de un área geográfica.

  • bullet

    Zona de disponibilidad. Son ubicaciones físicas exclusivas dentro de una región. Generalmente una zona de disponibilidad delimita o establece una oferta de alta disponibilidad que salvaguarda las aplicaciones y los datos de posibles errores en el data center . Cada zona de disponibilidad suele estar formada por uno o varios centros de datos equipados de forma independiente (alimentación, refrigeración y redes). 

Normalmente, los principales proveedores trabajan con al menos tres zonas independientes dentro de cada región. Esto permite establecer lo que se conoce como una redundancia de zona , replicando aplicaciones y datos en diferentes zonas de disponibilidad y protegiéndolos así frente a puntos de error únicos.

Artboard 2 copia 21.png

Disponibilidad, tolerancia al fallo y durabilidad

Ningún sistema está libre de errores. Un sistema está compuesto por muchos elementos (software, hardware, suministro eléctrico…) susceptibles de estropearse, además de los posibles errores humanos o desastres naturales que deben evaluarse al analizar los riesgos. Es aquí donde entran conceptos importantes asociados a la fiabilidad de las infraestructuras. 

  • bullet

    Disponibilidad . Este concepto hace referencia a cuánto tiempo el proveedor del servicio garantiza que los datos y servicios estarán disponibles para el cliente en periodo de tiempo determinado. Se puede expresar de diferentes maneras, aunque generalmente hace referencia a un porcentaje de tiempo en el que el servicio está disponible y puede entregar datos bajo petición. La disponibilidad es uno de los puntos principales del SLA (Service Level Agreement) y está íntegramente relacionada con la redundancia del hardware.

  • bullet

    Tolerancia a fallos . Es la propiedad del sistema que determina la capacidad de un sistema para seguir funcionando en caso de fallo de uno o varios de sus componentes. La tolerancia a fallos se puede incrementar, previendo posibles situaciones de excepcionalidad y preparando el sistema para hacerles frente. El objetivo es conseguir una autoestabilización del sistema ante determinados eventos.

  • bullet

    Durabilidad . Está enfocada en la protección de los datos a largo plazo, es decir, garantizar de alguna manera que los datos seguirán existiendo y estarán protegidos ante posibles eventos de degradación y/o corrupción. En este caso, la redundancia de los datos es fundamental, para que ni se pierdan ni se vean comprometidos.

Elasticidad y Escalabilidad

Otros conceptos intrínsecos a los servicios cloud que es interesante resaltar son:

  • Escalabilidad . Este concepto hace referencia a la posibilidad de aumentar el tamaño de la carga de trabajo de la infraestructura existente (hardware, software…) sin afectar al rendimiento.

  • Elasticidad . La demanda de servicios no es siempre la misma. El concepto elasticidad es una propiedad del cloud que permite ampliar o reducir recursos informáticos rápidamente, ya sea a nivel de procesamiento, memoria o almacenamiento. Esto posibilita que las empresas y equipos de IT puedan evitar tener que planear, comprar, preparar y mantener recursos y equipos que generalmente se acaban infrautilizando. 

Acuerdo de Nivel de Servicio (SLA)

El SLA , Service Level Agreement o Acuerdo a Nivel de Servicio es básicamente un contrato en el que se especifica el nivel de servicio que el cliente espera de su proveedor, es decir, es un documento donde se especifican una serie de indicadores para regular y asegurar el cumplimiento de las expectativas de los clientes.

Generalmente un SLA plantea varios conceptos importantes que definirán el nivel de servicio:

  • bullet

    Disponibilidad . Hace referencia al tiempo que el proveedor del servicio garantiza que los datos y servicios estarán disponibles durante un periodo determinado. Los proveedores suelen ofrecer una disponibilidad que varía entre el 99,5% y el 100%, es decir, aseguran que su servicio estará disponible, como poco, el 99,5% del tiempo del mes o el año. Especificar la manera en la que se calculan estos porcentajes es importante de cara al SLA. 

  • bullet

    Compensaciones por incumplimiento. Si el proveedor no cumple con los tiempos de disponibilidad ofrecidos en su SLA, este deberá compensar a sus clientes. En líneas generales, la compensación no suele superar el 100% del coste del servicio para un periodo de facturación dado. Los límites típicos varían entre el 10% y el 100% del coste actual.

  • bullet

    Preservación de datos. Un par de cosas que hay que tener en mente en relación con la preservación de los datos y la posición de clientes y proveedores:

  • Generalmente el proveedor de servicios declara que no tiene ninguna obligación de conservar los datos del cliente si este incurre en una violación de las políticas de uso o impago. 

  • Por otro lado, los proveedores no suelen borrar los datos de forma intencionada hasta 30 días después de que el cliente se haya dado de baja.

¿De qué hablamos cuando hablamos de un servicio web? 

Un servicio web o web service es un sistema de comunicación entre dos dispositivos electrónicos en una red. En el fondo, no es más que un conjunto de protocolos abiertos y estándares usados para intercambiar datos entre aplicaciones o sistemas.

En este sentido, las aplicaciones escritas en varios lenguajes de programación, que se ejecutan en plataformas diferentes, pueden usar servicios web (o web services) para intercambiar la información a través de una red. Así es posible, por ejemplo, la interoperabilidad entre Jav a y P ython  o Window s y L inux .

Los comités responsables de la arquitectura y reglamentación de los web services pertenecen a las organizaciones OASIS y W3C.

Arquitectura de los servicios web

Aquí, una breve presentación de las principales arquitecturas para la creación y consumo de servicios web:

  • 1

    SOAP (Simple Object Access Protocol).

Es un protocolo estándar que determina cómo dos objetos en distintos procesos pueden comunicarse a través de intercambios de datos XML. El rasgo diferencial de SOAP es que las operaciones son definidas como puertos WSDL (Web Services Description Language).

Esta es la razón por lo que se aconseja utilizar este protocolo en entornos donde se establezca un contrato formal y donde se especifiquen todas las funciones de la interfaz, así como el tipo de datos utilizados tanto de entrada como de salida. El lenguaje WSDL permite definir claramente cualquier detalle de las funciones del WS.

servicios-web.jpg
  • 2

    REST (Representational State Transfer).

Es un estilo de arquitectura de software para sistemas distribuidos tales como la web. A diferencia de SOAP, se centra en el uso de los estándares HTTP y XML para la transmisión de datos sin la necesidad de contar con una capa adicional. Actualmente son muchas las empresas que utilizan API REST para crear servicios, ya que es un estándar lógico y eficiente para la creación de servicios web.

Algunos ejemplos de API REST podrían ser los sistemas de identificación de Facebook o la autenticación en los servicios de Google.

Mesa de trabajo 89 copia 7.png

Las operaciones más importantes que nos permitirán manipular los recursos son:

GET

POST

PUT

DELETE

Las reglas básicas que identifican los sistemas RESTful son:

  • Cliente-servidor : el cliente y el servidor está débilmente acoplados, es decir, el cliente no necesita saber los detalles de implementación del servidor y el server tampoco necesita conocer cómo son usados los datos que envía el cliente.

  • Sin estado : cada petición que recibe el servidor es independiente, por lo que no es necesario mantener sesiones.

  • Cacheable : debe admitir un sistema de almacenamiento en caché. Este almacenamiento evitará tener que repetir varias conexiones entre el servidor y el cliente para recuperar un mismo recurso.

  • Interfaz uniforme: determina una interfaz genérica para administrar cada interacción que se produzca entre el cliente y el servidor de forma homogénea. Esta restricción determina que cada recurso del servicio REST de tener una única dirección, “URI”.

  • Sistema de capas: el server puede disponer de varias capas para su implementación. Esto ayuda a mejorar la escalabilidad, el rendimiento y la seguridad.

Al crear nuestro servicio o API REST, hay que tener en cuenta que el lenguaje en el que se implemente no es lo importante. Lo importante es que las respuestas a las peticiones se hagan en XML o JSON, ya que es el lenguaje de intercambio de información más usado.

Qué ventajas tienen los servicios web:

  • Interoperabilidad. Permiten la interconexión entre sistemas software independientemente del lenguaje, la plataforma o la tecnología en la que estén creados.

  • Disminuyen los problemas de interacción en sistemas distribuidos. Al apoyarse en HTTP y poder invocarse a través del puerto TCP 80, consiguen minimizar los problemas de intercomunicación entre sistemas distribuidos en redes diferentes y permiten pocos cambios en la seguridad de las organizaciones.

  • Transparencia en las capacidades de integración. Conectan sistemas remotos con estándares abiertos como XML o HTTP, todo ello bajo el paraguas de la especificación de W3C.

  • Promueve la reutilización. Un mismo servicio puede servir una función a distintas aplicaciones, reutilizando funciones desplegadas como servicios.

  • Promueve el encapsulado. Un consumidor no sabe cómo está implementado el servicio, solo necesita saber la función que realiza y el interfaz.

  • Es sencillo de entender. Al basarse en estándares y protocolos basados en texto, es legible.

Qué inconvenientes presentan los servicios web:

  • Rendimiento. Uno de los inconvenientes del uso de estándares y protocolos basados en texto es el rendimiento, sobre todo si se compara con otros modelos de computación distribuida.

  • Seguridad. Al ampararse en HTTP, pueden esquivar medidas de seguridad basadas en firewall, evitando el bloqueo o la auditoria entre programas a ambos lados de la barrera. 

Existen diferentes roles técnicos asociados al funcionamiento de una plataforma cloud estándar. Esta sección desgrana cada uno de estos perfiles y sus funciones.

Arquitecto Cloud

El Arquitecto Cloud se encarga de transformar los requerimientos técnicos de un proyecto, en un diseño y arquitectura en la nube que permitan alcanzar el objetivo final. Es el principal responsable de administrar la estructura cloud de la compañía, y sus funciones abarcan todo lo relacionado con servidores, plataformas, soluciones de almacenamiento, conectividad y softwares. 

Muchas veces, los Arquitectos Cloud son el referente en sus empresas a la hora de plantear soluciones a problemas de la operativa del negocio.

arquitecto-cloud.jpg

Un Arquitecto Cloud se encarga de:

  • 1

    Liderar el cambio hacia el cloud. El Arquitecto Cloud debe identificar cuáll es la mejor ruta a seguir. Debe empoderar a desarrolladores, administradores de sistemas y managers para que tomen sus decisiones valorando siempre posibles soluciones en la nube, pero sin enfrentar al cloud y el on-premise. Debe combinar habilidades técnicas y no técnicas para ser capaz de gestionar un campo en constante evolución.

  • 2

    Desarrolla y coordina la arquitectura cloud. El Arquitecto Cloud debe definir la hoja de ruta y, aceptando posibles cambios que puedan ir surgiendo a lo largo del proyecto, tener clara la línea que se debe seguir. 

    Algunas de las áreas que el Arquitecto Cloud debe valorar a la hora de definir la hoja de ruta son:

    • Manejo de DNS

    • Caching & CDN

    • Networking

    • Active Directory & Single Sign On

    • Middleware y S.O. (IAAS)

    • Clusterización y orquestación de IaaS/contenedores

    • Definición de APIs e integración

    • Bases de datos en Cloud

    • Monitoring

    • Seguridad & certificados SSL

    • Encriptación

    • Flujos de despliegue y automatización

    • Big Data y Data Analytics

    • IoT

    • Patrones de infraestructura para aplicaciones: Legacy, Monolítica, Servicios y Microservicios.

  • 3

    Desarrolla la estrategia cloud y coordina su adopción. Un Arquitecto Cloud debe tener ciertas capacidades de negociación y colaboración, ya que es partícipe en la negociación con proveedores, coordinación de los proyectos e implementación y migración de servicios. Asimismo, necesita conocimientos técnicos en áreas como la automatización, seguridad, ITSM, integración y arquitectura de aplicaciones.

    Necesita estar en muchas partes al mismo tiempo y valorar numerosas variables con el único fin de llevar a cabo una transición hacia el cloud de la manera más eficiente, ordenada y segura posible.

Administrador de Sistemas (SysAdmin)

El Administrador de Sistemas es la persona responsable de garantizar el correcto funcionamiento de la plataforma tecnológica de una compañía y asegurar así la operativa del negocio.

Principales tareas del Administrador de Sistemas:

  • bullet

    Implementar nuevos servidores y gestionar cambios de configuración. El SysAdmin se encarga de poner en funcionamiento nuevos servidores, añadir nuevos sistemas de almacenamiento y configurar redes para hacer del servicio un entorno 100% operativo.

  • bullet

    Gestión de la política de copias de seguridad. Una tarea realmente importante del Administrador de Sistemas es garantizar la existencia, disponibilidad e integridad de la información de la compañía y sus usuarios. Para ello, el SysAdmin debe diseñar una política de backups, a ser posible automatizada, con niveles de frecuencia e integridad que aseguren la disponibilidad de la información ante posibles desastres.

  • bullet

    Gestionar el software. Mantener las versiones adecuadas del software, aplicar parches de seguridad que protejan a los sistemas de posibles vulnerabilidades, y en caso de los nuevos softwares, probarlos antes de que se suban a producción.

  • bullet

    Gestionar cuentas de usuarios. Dar de alta y baja a usuarios y llevar a cabo modificaciones relacionadas con los privilegios de acceso de estos.

  • bullet

    Monitorizar el rendimiento del sistema. Para ser proactivo y adelantarse a futuros fallos, el SysAdmin debe detectar preventivamente la degradación en el rendimiento de los sistemas. Para ello, la monitorización es fundamental.

  • bullet

    Seguridad . Abarca tareas críticas y sensibles, ya que no hay ningún sistema o plataforma infalible ante un ataque. El Administrador de Sistemas debe aplicar y actualizar de forma continua las políticas de seguridad, concienciar a los usuarios, actualizar versiones y parches de software, instalar sistemas de protección y detección…

  • bullet

    Gestionar fallos y caídas del sistema. Adopción de acciones correctivas para superar cualquier incidente informático a través de una intervención que ayude a restaurar el sistema en el menor tiempo posible.

  • bullet

    Ayuda y atención a requerimientos de los usuarios. Prestar apoyo tecnológico a usuarios de la organización para que puedan llevar a cabo de forma exitosa sus funciones laborales.

  • bullet

    Documentación . Aunque rara vez se lleva a cabo, el SysAdmin debe documentar las actividades informáticas del sistema y la plataforma de forma periódica; esto ayudará sin duda en futuras intervenciones y consultas.

Desarrolladores: Backend y FrontEnd

Un desarrollador es un programador que se dedica a uno o más aspectos del proceso de desarrollo de software. 

El desarrollador está involucrado en todo el proceso de creación y diseño de nuevos sistemas, partiendo de la planificación inicial, estableciendo parámetros, diseñando, escribiendo código y probando.

Actualmente existen dos perfiles diferenciados dentro de los desarrolladores de software:

  • 1

    Desarrollador FrontEnd:

    Trabaja en toda la parte que se ve, cerca del cliente, en el navegador. Principalmente se ocupa de los elementos externos, más visuales del sitio o de la aplicación web. De esta manera, debe dominar áreas como:

    • HTML : es el componente estructural básico de todas las webs de internet. Sin él no habría páginas web.
    • CSS : es lo que proporciona estilo al HTML. Se encarga de describir las formas y renderizar los elementos que aparecen en la pantalla.
    • JavaScript (JS) : permite que las páginas web sean interactivas; si estas solo usaran HTML y CSS, serían estáticas.
  • 2

    Desarrollador BackEnd:

    Trabaja del lado del servidor, en toda la parte que no se ve, haciendo que las cosas funcionen. Sin un desarrollo en la parte del BackEnd, los desarrollos realizados por el desarrollador de Front no se sostendrían.

    Son muchos los lenguajes en los que especializarse si se quiere ser Desarrollador de BackEnd. A día de hoy, los más comunes son:

    • ASP.NET :   es la plataforma de desarrollo web de Microsoft. Muy utilizada en las empresas. Tiene las variantes Web Forms y MVC, y ahora también ASP.NET Core MVC.
    • PHP : el famoso gestor de contenidos WordPress usa por detrás PHP. Laravel es uno de los frameworks usados con este lenguaje.
    • Ruby : junto con su framework Ruby on rails.
    • Python : fácil de aprender. Usado a menudo con Django como framework.
    • N ode.js : se está haciendo cada vez más popular debido a que usa el mismo lenguaje que en el lado del cliente, JavaScript.
    • Java : el lenguaje clásico y uno de los más demandados.

DevOps, más que un rol técnico,
una nueva cultura de trabajo

El término DevOps es una combinación de los términos D ev elopment (desarrollo) y O p eration s (operaciones), y más que un rol en sí, plantea la unión de roles que históricamente han estado aislados, pero que ahora se coordinan y colaboran para producir mejores productos y ofrecer más valor al cliente. 

Este movimiento, que surge en 2008, designa la unión de personas, procesos y tecnología dando lugar a una cultura enfocada en responder mejor a las necesidades de los clientes, aumentar la confianza en las aplicaciones que se crean y alcanzar los objetivos de negocio más rápidamente.

Ventajas de una cultura DevOps:

Los equipos que adoptan este tipo de prácticas y herramientas generalmente mejoran el rendimiento creando productos de más calidad en menos tiempo, incrementando así la satisfacción de los clientes. Una mejora en los procesos y la colaboración es fundamental para alcanzar objetivos empresariales como:

  • bullet

    Una mejor adaptación al mercado y a la competencia.

  • bullet

    Disminución del tiempo de comercialización de los productos.

  • bullet

    Mejorar y mantener la estabilidad del sistema.

  • bullet

    Mejorar y mantener la estabilidad del sistema.

DevOps y el ciclo de vida de las operaciones:

Las prácticas DevOps influyen en todo el ciclo de vida del software. Cada fase de este ciclo de vida: planificación, desarrollo, implementación y uso, depende de las demás y no es específica de un solo rol. 

En una auténtica cultura DevOps, todos los perfiles están implicados de alguna forma en todas y cada una de las fases. 

devops.jpg

Los equipos DevOps conciben, definen y describen las características y funcionalidades del software y los sistemas que van a crear.

Abarca todos los aspectos de programación y compilación del código para su implementación en varios entornos.

La entrega es el proceso de implementar el software en entornos de producción de un modo constante y confiable.

Supone mantener y monitorizar el software, así como solucionar posibles problemas en un entorno de producción.

Características que definen la cultura DevOps:

Adoptar una cultura DevOps no solo supone automatizar y optimizar procesos con tecnología, sino que implica grandes cambios en la forma de trabajar y colaborar. 

Algunas de las características principales de esta forma de entender el negocio son:

  • 1

    Colaboración, visibilidad y alineamiento. Uno de los objetivos principales al tratar de implementar una cultura de este tipo, es la colaboración entre los equipos que configuran la compañía. Para conseguirlo, es necesario fomentar la visibilidad y que los equipos compartan su evolución, prioridades y preocupaciones a la vez que planifican el trabajo futuro y alinean sus objetivos con las metas de negocio.

  • 2

    Cambios en las responsabilidades, a medida que los equipos alinean sus objetivos, participan más en distintas fases del ciclo de vida y asumen responsabilidades para mejorar el rendimiento, la estabilidad y la seguridad.

  • 3

    Ciclos de lanzamiento más cortos. La agilidad derivada de los procesos establecidos permite lanzar versiones de software en ciclos cortos, lo que facilita la planificación y la gestión de los riesgos.

  • 4

    Aprendizaje continuo. Aceptar el fracaso y responder rápido a los errores es parte de una buena cultura DevOps. La mejora continua pasa por incorporar todo lo aprendido en procesos anteriores a las nuevas etapas del proyecto. Este aprendizaje continuo y su aplicación es lo que agiliza la innovación, aumenta la satisfacción del cliente y permite la adaptación al mercado constantemente.

Integración y Entrega continua (CI/CD):

Este es un método para distribuir aplicaciones a los clientes con frecuencia a través de la automatización en las etapas del desarrollo. El CI/CD se caracteriza por la integración y distribución continua, la implementación continua, la automatización y el control permanente en todo el ciclo de vida de la aplicación. 

  • bullet

    Integración continua (CI). Filosofía de codificación y conjunto de prácticas en general que fomentan en los equipos de desarrollo una implementación frecuente de pequeños cambios y un registro continuo del código en los repositorios de control de versiones. En el fondo, lo que esta filosofía pretende es establecer una forma lógica y automatizada para crear y testar aplicaciones.

  • bullet

    Entrega continua (CD).  Automatiza la entrega de aplicaciones a determinados entornos de infraestructura ya que generalmente los equipos de desarrollo trabajan con múltiples entornos (producción, pruebas, desarrollo…). De esta manera, el CD asegura que haya una forma automatizada de enviar a todos esos entornos los cambios de código.

cultura-devops.jpg

El concepto ‘nube pública’ hace referencia a una infraestructura que está disponible para el público en general y es provista por una organización que comercializa servicios a demanda. 

De esta manera, se puede describir como un conjunto de recursos compartidos que son utilizados por muchas organizaciones al mismo tiempo para ejecutar procesos, almacenar datos y entregar contenidos sin necesidad de realizar un desembolso inicial fuerte y pagando solo por lo que se usa.

Dicho esto, la arquitectura de nube constituye la manera en la que se integran las diferentes tecnologías para crear entornos de TI que extraen, agrupan y comparten los recursos escalables de una red. Además, esta arquitectura define cómo se conectan todos los elementos y las funciones requeridas para diseñar una plataforma en línea en la que se puedan ejecutar aplicaciones.

¿Cómo es la arquitectura de una plataforma de nube pública?

Diseñar la arquitectura de una plataforma en la nube requiere no solo extraer las funciones informáticas de los elementos de hardware, sino también añadir niveles adicionales de desarrollo para incorporar la organización en contenedores, el enrutamiento, las interfaces de programación de aplicaciones (API), la seguridad, la gestión, la usabilidad (UX) y el software de automatización. 

De esta manera, una arquitectura de nube pública debería valorar:

nube-publica.jpg

Proporciona a administradores y usuarios una interfaz gráfica para el acceso, la provisión y automatización de los recursos. El dashboard es solo una manera de representar los diferentes elementos y facilitar así la interacción con los recursos.

Es un servicio que permite instrumentar y organizar múltiples aplicaciones a través de plantillas o una API.

Ofrece un directorio central de usuarios que determina los servicios de la plataforma a los que pueden acceder. Actúa como un sistema de autenticación común y se puede integrar con los servicios de directorio backend existentes como LDAP.

Sistema para la gestión de redes y direcciones IP que evita problemas de cuello de botella, y ofrece un autoservicio real, incluso a través de sus configuraciones de red. Asimismo, facilita modelos de redes para diferentes aplicaciones o grupos de usuarios y gestiona las direcciones IP, lo que permite direcciones IP estáticas o DHCP reservados. 


Los usuarios pueden crear sus propias redes, controlar el tráfico y conectar los servidores y los dispositivos a una o más redes.

Proporciona dispositivos de almacenamiento a nivel de bloque persistentes para usar en los servidores. Este sistema de almacenamiento gestiona la creación, aplicación y retirada de los dispositivos de bloque a los servidores, además de facilitar que los usuarios gestionen sus propias necesidades de almacenamiento. Este tipo de almacenamiento es especialmente interesante para escenarios donde el rendimiento es importante: almacenamiento de bases de datos, sistemas de archivos expandibles, o la prestación de un servidor con acceso al almacenamiento de bloque en bruto. 

Asimismo, la gestión de los Snapshots ofrece una potente funcionalidad para realizar backups de los datos guardados en volúmenes de almacenamiento en bloque, ya que las instantáneas pueden restaurarse y utilizarse para crear nuevos volúmenes de almacenamiento.

Es la parte principal de cualquier plataforma IaaS. Está diseñada para gestionar y automatizar los recursos de computación de los servidores físicos y puede trabajar con tecnologías de virtualización como KVM, VMWare, Xen o Hyper-V. La arquitectura debería estar planteada para poder escalar horizontalmente en hardware estándar, sin requisitos de hardware o software propietarios, y además facilitar la integración con sistemas legacy y tecnologías de terceros.


En los últimos años, la evolución del IaaS ha dado lugar a:

  • Containers . Este es un silo aislado y ligero que permite ejecutar una aplicación en el sistema operativo host. Los containers se fundamentan en el kernel del sistema operativo host y solo contienen aplicaciones y API ligeras de SO y servicios que se ejecutan en modo usuario. De esta manera, se consigue optimizar los recursos de hardware al coexistir múltiples contenedores en un único sistema operativo.
  • Serveless . Recientemente ha surgido el concepto serverless. Modo de computación a través del cual el proveedor de la capa de computación permite ejecutar funciones durante periodos de tiempo determinados sin necesidad de que nos hagamos cargo de la infraestructura que hay por debajo.

Proporciona servicios de descubrimiento, de inscripción y de entrega de los discos y del servidor de imágenes. Las imágenes almacenadas se pueden usar como plantillas. También puede ser usado para almacenar y catalogar cantidades ingentes de backups.

Sistema de almacenamiento redundante y escalable. Los archivos se escriben en varias unidades de disco repartidas por diferentes servidores del centro de datos con el fin de asegurar la replicación y la integridad de los datos.

Este servicio facilita un único punto de contacto para los sistemas de facturación, proporcionando las métricas necesarias para llevar a cabo la facturación al cliente. Todo es trazable y auditable y los agentes que recopilan los datos deben ser independientes de todo el sistema.

Existen diferentes herramientas que facilitan la gestión de una infraestructura cloud. 

Sistemas de monitorización

Los sistemas de monitorización son los responsables de controlar la tecnología utilizada por una compañía (hardware, redes, sistemas operativos o aplicaciones), de manera que se pueda analizar su operativa y rendimiento, y además, permiten detectar y alertar de posibles errores.

Principales funciones de la monitorización en la nube:

  • Control de websites alojadas. 

  • Monitorización de máquinas virtuales.

  • Monitorización del almacenamiento.

  • Supervisión de la red.

  • Seguimiento de las bases de datos.

Principales herramientas de monitorización del mercado:

  • SolarWinds Network Performance Monitor.

  • New Relic.

  • Paessler PRTG Network Monitor.

  • Nagios.

  • Zabbix.

CMDB (Configuration Management Database)

Las empresas son cada vez más digitales y, sin duda, la infraestructura IT asociada a esas empresas no ha parado de crecer en los últimos años. A medida que la infraestructura crece, se hace más difícil gestionarlo todo y los equipos de IT necesitan herramientas que les ayuden a rastrear todos los activos IT, sus relaciones e interdependencias.

La CMDB es un concepto o herramienta que introduce ITIL-ISO 20000 para facilitar la gestión de los servicios IT. 

La CMDB es una base de datos que contiene información sobre cada CI (elemento de la configuración, del inglés configuration item ) y la relación entre ellos. 

cmbd.jpg

En resumen, podría decirse que la CMDB es un repositorio de información donde se relacionan todos los componentes de un sistema de información (hardware, software, documentación) y las interacciones entre ellos (incidencias, problemas, peticiones, cambios…). Es el centro de la gestión de la configuración.

relaciones-ci.jpg

Principales CMDB del mercado:

  • bullet

    IBM Tivoli CMDB.

  • bullet

    Device42.

  • bullet

    BMC Helix CMDB.

  • bullet

    ServiceNow CMDB.

  • bullet

    iTop.

  • bullet

    SysAid IT Asset Management.

  • bullet

    SolarWinds.

  • bullet

    GLPI.

  • bullet

    Insight for Jira.

Syslog (System Logging Protocol)

Syslog es el acrónimo de  System Logging Protocol, que significa Protocolo de Registro del Sistema. El syslog es un estándar (aunque no esté consensuado por ningún registro de estandarización) que se utiliza para enviar mensajes de registro o eventos del sistema a un servidor específico que actúa como syslog (servidor de syslog). 

Se utiliza fundamentalmente para recopilar registros, supervisarlos y analizarlos de forma centralizada.  Algunos de los registros con cierto interés por ser recopilados y analizados pueden ser:

  • bullet

    Acceso correcto al sistema.

  • bullet

    Irregularidades en el funcionamiento normal del sistema.

  • bullet

    Intentos de acceso con contraseñas erróneas.

  • bullet

    Avisos cuando ocurre alguna condición especial.

  • bullet

    Errores de hardware, software o actividades concretas del sistema operativo.

Generalmente este protocolo está habilitado en equipos de red (routers, switches, firewalls…), sistema basados en Linux/Unix o servidores web como Apache. Por defecto, el protocolo Syslog no está instalado en sistemas Windows, ya que este tiene su propio registro de eventos.

syslog-server.jpg

El servicio de registros de un Syslog tiene tres funciones principalmente:

  • 1

    Tiene la capacidad de recopilar información de registro para el control y la resolución de incidencias.

  • 2

    Permite seleccionar el tipo de información que se captura.

  • 3

    Permite determinar los destinos de los mensajes de syslog capturados.

Principales Syslog del mercado:

  • bullet

    SolarWinds Kiwi Syslog Server.

  • bullet

    Paessler PRTG Network Monitor.

  • bullet

    Loggly.

  • bullet

    Splunk Light.

  • bullet

    ManageEngine EventLog Analyzer.

  • bullet

    WhatsUp Syslog Server.

  • bullet

    Syslog Watcher.

  • bullet

    The Dude.

AIOps

Son plataformas tecnológicas que buscan automatizar y mejorar las operaciones de IT a través del uso de analíticas y aprendizaje automático. De esta manera, se consiguen procesar grandes cantidades de información, recopiladas de diferentes herramientas y dispositivos, y así detectar y reaccionar de forma automática a incidencias en tiempo real.

La combinación de conceptos como el Big Data y el aprendizaje automático permiten, por un lado, la separación de la información recopilada en datos de observación (outputs de los sistemas de monitorización) y datos de compromiso (registro de incidencias y eventos) para luego implementar Analytics y Machine Learning (ML) contra los datos de IT combinados. A partir de aquí, lo que se espera es un flujo continuo de información que puede ayudar a la mejora continua una vez se implemente la automatización.

Mesa de trabajo 89 copia 9.png

¿Qué está promoviendo la implantación del AIOps?

  • La dificultad cada vez mayor que se encuentran los equipos de IT para gestionar manualmente su infraestructura.

  • La cantidad de datos que los equipos de IT necesitan gestionar está aumentando de forma exponencial.

  • Los problemas en las infraestructuras necesitan de respuestas cada vez más rápidas.

  • Los desarrolladores tienen cada vez más influencia, pero la responsabilidad aún es del equipo de IT.

ELK

ELK es un conjunto de herramientas de código abierto que se combinan para dar lugar a una herramienta de gestión y administración que permite la monitorización, consolidación y análisis de logs generados en diferentes servidores.

¿Qué hace ELK?

  • Recopila logs de eventos y de aplicaciones.

  • Procesa la información y la convierte en opciones de búsqueda y filtrado.

  • Presenta la información de manera que se pueden hacer búsquedas, filtrados y agregaciones, haciendo del acceso a los datos algo mucho más visual.

  • Pone la información a disposición de las personas que la necesitan. Hay módulos de seguridad que evitan los accesos indebidos.

¿Qué componentes configuran ELK?

Mesa de trabajo 89 copia 8.png

Logstach

Elasticsearch

Kibana

Hace referencia a la arquitectura y distribución de los recursos físicos o hardware que implementa y mantiene el proveedor de servicios cloud que ofrece el servicio de nube pública. 

infraestructura-1.jpg

La infraestructura hardware incluye no solo los elementos que la conforman, sino también la integración e interacciones que se dan entre todos esos elementos.

Mesa de trabajo 89 copia 4.png

Son los dispositivos ubicados entre la red interna y las redes de otros proveedores que intercambian tráfico con nosotros. Su función es dirigir el tráfico de datos de un lado a otro.

El cortafuegos es un sistema que tiene como objetivo proteger nuestra red privada de intrusiones o ataques bloqueando el acceso de posibles amenazas. De esta manera, si el tráfico cumple con las reglas especificadas, podrá acceder y salir de nuestra red; si no las cumple, será bloqueado.

Un sistema de detección de intrusiones (IDS) es un programa que permite detectar accesos no autorizados. Actúa, evaluando la intrusión cuando esta toma lugar y genera una alarma. El IDS suele ir acompañado de una herramienta de prevención de ataques llamada IPS, que rastrea de forma proactiva el tráfico de red sospechoso o inusual. Estos sistemas pueden aplicarse tanto a nivel de software como a nivel de hardware y suelen trabajar conjuntamente. Por eso, normalmente se habla de IDS/IPS.

Es un dispositivo (hardware o software) que se pone al frente de un conjunto de servidores para asignar o balancear, en base a un algoritmo, las solicitudes que le llegan de los clientes. En definitiva, es un sistema para distribuir la carga de trabajo en varios servidores separados o agrupados en un clúster.

  • Switch-core. No es un switch típico. Hace referencia a un switch que se coloca en el núcleo de una red con el fin de proporcionar un punto de agregación final a la red y permitir que diferentes módulos trabajen juntos.
  • Switch-distribución. Interactúa entre la capa de acceso y el núcleo de una red habilitando funciones importantes como: agregar redes de armario de cableado a gran escala; agregar dominios de difusión de capa 2 y límites de routing de capa 3; proporcionar funciones inteligentes de switching, de routing y políticas de acceso a la red; facilitar una alta disponibilidad al usuario final; o proporcionar servicios diferenciados a distintas clases de aplicaciones en el perímetro de red. 
  • Switch-acceso. Representa el perímetro de la red. Tradicionalmente, estos switches proporcionaban acceso de red al usuario conectándose a los switches de capa de distribución e implementando tecnologías de base de red como el routing, la calidad del servicio y la seguridad.
  • Servidores (nodos de computación). Servidor físico que proporciona recursos efímeros de almacenamiento, redes, memoria y procesamiento a las diferentes instancias de máquinas virtuales.
  • Almacenamiento primario. Conocido generalmente como memoria (o memoria RAM), es el único almacenamiento al que accede directamente la CPU para leer y ejecutar instrucciones. Este tipo de almacenamiento funciona con una amplia variedad de sistemas de almacenamiento secundario como NetApp, Pure, HP, Hitachi, EMC…
  • Almacenamiento secundario (objetos). Es un sistema de almacenamiento que maneja los datos como objetos y no como jerarquías de archivos (como los sistemas de archivo) o bloques (como el almacenamiento de bloque). Normalmente cada objeto incluye el propio dato, una cantidad variable de metadatos y un identificador global único.

La tendencia del Cloud Computing en sus diferentes modalidades (IaaS, PaaS y SaaS) busca generalmente hacer las cosas más fáciles y disminuir la dedicación a tareas de gestión y administración de la infraestructura.

Como hemos visto con anterioridad, los modelos SaaS evitan directamente toda interacción con la infraestructura, sistemas operativos, etc. 

El IaaS, sin embargo, ha seguido evolucionando:

Artboard 2 copia 9.png

1991 – 1995

Bare Metal

Durante los primeros años de la web, en lo que también que se conoce como los tiempos del Bare Metal, publicar una web no era nada sencillo.


Para hacerlo se debía comprar un servidor, configurarlo, conectarlo a una fuente de electricidad estable y a internet… para, finalmente, ejecutar un servidor web en el servidor físico comprado. 

2001

Virtualización e IaaS

VMWare lanza ESXi y la virtualización de servidores se convierte en realidad. La separación de un servidor físico en múltiples máquinas virtuales independientes da lugar a una solución mucho más flexible, cómoda y escalable que sirvió para fraguar el IaaS de la mano de Amazon Web Services entre 2002 y 2006.

2013

Containers

Proporciona una nueva capa de abstracción y automatización de la virtualización a nivel de sistema operativo (en Windows y Linux). Es decir, es una forma de empaquetar aplicaciones para que puedan ejecutarse fácilmente en varios servidores sin preocuparse por la infraestructura subyacente.

2018

Serverless

La industria busca el siguiente nivel de abstracción que disminuya las responsabilidades asociadas a la infraestructura y permita centrarse mejor en el core del negocio. 


Las aplicaciones sin servidor son aquellas que no requieren del despliegue y administración del servidor. De esta manera se evitan responsabilidades como el control del sistema operativo, aprovisionamiento, disponibilidad…..

Internet de las Cosas

El Internet de las Cosas (IoT) es una red en la que están conectados, vía internet o red privada, objetos que se usan en la vida cotidiana.

A través de sensores instalados en los objetos se realiza la captura, almacenamiento y gestión de datos para convertirlos en información con la cual se pueden tomar mejores decisiones y automatizar actividades y procesos.

Artboard 2 copia 12.jpg

Estos son algunos ejemplos de lo que el Internet de las Cosas ya hace en la vida cotidiana.

Con Azure IoT Suite , Rolls-Royce recolecta y agrega datos de diversos sensores ubicados en aviones que vuelan en varias partes del mundo, para saber en tiempo real el rendimiento del motor de los aviones durante un vuelo y realizar descargas masivas de datos completos de tipo caja negra, registros técnicos y planes de vuelo, así como de datos pronósticos y meteorológicos reales proporcionados por terceros.

La logística es uno de los sectores donde más influencia tienen las aplicaciones del IoT. Controlar los paquetes, gestionar los vehículos, evitar robos y gestión de movimientos son algunos aspectos a tener en cuenta dentro de este área.

Si antes hablaba de controlar los vehículos, imagínate cómo serán los almacenes donde están todas esas mercancías. Es indispensable poder controlar cada uno de ellos para que sean capaces de llegar a tiempo a su destino.

Gracias al IoT se ha impulsado el desarrollo de nuevos modelos de producción que recopilan datos de cómo se mueve una ciudad, y una sociedad en concreto, para establecer métodos eficientes con los cuales se consiga hacer un uso correcto de los recursos de la ciudad. 


La finalidad es desarrollar modelos de sostenibilidad de consumo y producción para impulsar la economía.

Edge Computing

El Edge Computing permite que los datos producidos por los dispositivos del Internet de las Cosas (IoT) se procesen más cerca de donde se crearon en lugar de enviarlos a través de largos recorridos para que lleguen a data centers y nubes.

La ventaja de este sistema es que permite a las empresas ahorro de tiempo (y también de dinero), ya que analiza los datos en tiempo real , algo imprescindible en industrias como salud, finanzas, retail o telecomunicaciones, entre otras. 

Una mayor velocidad al momento de analizar los datos mejora considerablemente los procesos internos de cada compañía.

Antes de entrar a definir lo que es el Big Data, es necesario entender la situación en la que nos encontramos. 

La cantidad de datos almacenados se duplica cada dos años. La revolución digital y todas las herramientas y tecnologías que la acompañan están generando datos a un ritmo exacerbado. Pero… ¿para qué sirve toda esa información si no puede ser procesada?, ¿si no se pueden sacar conclusiones?, ¿si no aporta?

Cuando hablamos de Big Data nos referimos a todo ese conjunto de datos cuyo tamaño, complejidad y velocidad de crecimiento dificulta su captura, procesamiento o análisis mediante tecnologías convencionales, y por tanto necesitan de técnicas y sistemas especiales de procesamiento.

La dificultad en el procesamiento se debe a las 3 Vs que caracterizan el Big Data:

La cantidad de datos es enorme. El tamaño que determina si un conjunto de datos se considera Big Data no está firmemente definido, pero la mayoría de los analistas y profesionales actualmente hacen referencia a conjuntos de datos que van desde los 30-50 terabytes a varios petabytes.

Los datos se generan de forma extremadamente rápida.

Los datos son heterogéneos. Distintos tamaños, formatos, estructuras, tipologías…

Artboard 2 copia 20.png

Por otra parte, en los últimos años se han añadido 2 Vs más :

Los datos deben ser confiables. No es que los datos incorrectos no tengan valor, sino que pueden ser altamente perjudiciales para el procesamiento y la toma de decisiones.

Los datos poseen un valor intrínseco, sin embargo, no tienen ninguna utilidad hasta que ese valor no se descubre.

¿Por qué el Big Data tiene tanto potencial? 

Lo que hace que el Big Data sea tan interesante para las empresas es el hecho de que proporciona respuestas a muchas preguntas que las empresas ni siquiera sabían que tenían. Permite establecer un punto de referencia. 

La recopilación y análisis de grandes cantidades de datos, así como la búsqueda de tendencias dentro de los datos, generan respuestas más completas , lo que implica un enfoque totalmente distinto para las empresas a la hora de abordar los retos. Además, acaba suponiendo una clara ventaja competitiva.

¿Quién lo está implementando de verdad? 

A continuación tienes algunos ejemplos de cómo algunas compañías aplican el Big Data para abordar diferentes retos empresariales:

  • bullet

    Desarrollo de productos. Netflix y Pocter&Gamble usan Big Data para prever la demanda de clientes creando modelos predictivos para nuevos productos y servicios. De esta manera, asocian atributos clave de antiguos productos con el éxito comercial que hayan tenido, consiguiendo información de mucho valor para la creación y comercialización de nuevos productos y/o servicios.

  • bullet

    Experiencia de cliente. T-Mobile consiguió reducir el número de portabilidades hasta un 50% analizando los datos de las quejas y conversaciones que los clientes dejaban en redes sociales, estableciendo patrones y enviando ofertas especiales a cada uno de ellos para ofrecerles lo que necesitaran y así evitar que se fueran de la compañía.

  • bullet

    Apertura de nuevos nichos de mercado. Nike se está convirtiendo en una empresa pionera a nivel tecnológico. Gracias a sus wearables, la compañía obtiene cada vez más información sobre clientes y hábitos deportivos. Información que se usa para plantear la apertura de nuevos nichos de mercado.

  • bullet

    Recomendaciones e incremento en las ventas. Amazon sabe perfectamente lo que le gusta a sus clientes. Para conocer los gustos de los clientes, la compañía no solo se basa en los datos del usuario, sino también en las tendencias que es capaz de analizar a partir de los amplios catálogos de datos que recopila. Así, Amazon ha conseguido con éxito ofrecer recomendaciones a sus clientes en base a las pautas de comportamiento de otros compradores parecidos al propio usuario.

  • bullet

    Fraude y conformidad. La seguridad y los requisitos de conformidad están en constante evolución. El Big Data ayuda a identificar patrones en los datos que pueden ser indicativos de fraude.

  • bullet

    Eficiencia operativa. El Big Data permite analizar y evaluar las opiniones de los clientes, la producción, las devoluciones y otros muchos factores que permiten a las empresas anticiparse a la demanda y reducir el número de situaciones de falta de stock.

El Cloud Computing y el Big Data están fomentando que el sector empresarial adquiera, cada vez más, una cultura de datos . Es decir, se empieza a ver cómo las empresas tienden a respaldar la toma de decisiones de negocio en base a información real que proviene tanto de fuentes propias como externas.

El Machine Learning para empresas es el siguiente paso.

En base a esta rama de la inteligencia artificial , se pueden analizar grandes cantidades de datos de forma automática y obtener información de altísimo valor para el negocio.

¿Qué es el Machine Learning?

Básicamente, el Machine Learning es un método de análisis de datos que automatiza la construcción de modelos analíticos.

Es una disciplina del ámbito de la inteligencia artificial que crea sistemas que aprenden de forma automática a partir de los datos introducidos, ayudando en la toma de decisiones con mínima intervención humana.

¿Qué aporta el Machine Learning a las empresas?

Los beneficios del Machine Learning en el sector empresarial empiezan a ser una realidad a pesar de que todavía se considera una tecnología poco madura. 

Algunas de las principales ventajas que aporta son:

  • bullet

    Aglutinar y uniformar fuentes de datos. El Machine Learning permite relacionar datos inconexos y explorar los resultados de estas nuevas relaciones.

  • bullet

    Detectar patrones en el comportamiento de clientes. De esta manera, por ejemplo, se pueden utilizar datos de navegación web de los usuarios de un ecommerce para ofrecer productos de venta cruzada con cierta personalización.

  • bullet

    Segmentación de datos. El Machine Learning, ante un alto volumen de datos, puede detectar clústeres en base a comportamientos comunes, lo que hace posible un análisis más detallado y una toma de decisiones específica para esa segmentación.

  • bullet

    Predicción de la demanda. A través de un algoritmo de aprendizaje automático y el histórico de ventas de la compañía, se puede llegar a prever cómo evolucionará la demanda de nuestros productos o servicios.

  • bullet

    Automatización de procesos. Analizando, por ejemplo, los tickets del departamento de atención al cliente para evaluar de forma automática el grado de satisfacción de nuestros clientes.

En resumen, se puede afirmar que el uso de algoritmos de Machine Learning permite que las empresas tomen decisiones de manera más informada , y así generen una ventaja competitiva.

¿Para qué sirve el Machine Learning?

Hay muchas áreas en las que el sector empresarial está empezando a usar el Machine Learning: Ventas, Marketing, Logística, Productividad, Seguridad…

Aquí tienes algunos ejemplos.

La combinación de Machine Learning y una base de datos históricos permite saber, por ejemplo, qué clientes tienen más probabilidad de irse, qué ventas son más probables de acabar cerrándose, etc. 


Un buen sistema de análisis de comportamiento (generación de datos) puede permitir, a través del Machine Learning, la identificación de patrones que ayuden a tomar decisiones durante los procesos de venta.

Una de las aplicaciones del Machine Learning a nivel de operativa tiene mucho que ver con la optimización de tiempos. 


El sistema puede determinar cuándo es el mejor momento para llevar a cabo una tarea específica como, por ejemplo, un incremento o detrimento en el proceso productivo, un cese de la producción, cuándo realizar una inversión en maquinaria…

El Machine Learning puede ayudar en los procesos de alta y baja de servicios sin necesidad de llamar a un call center. Mediante patrones se pueden identificar palabras o frases y generar una respuesta adecuada , haciendo los procesos mucho más rápidos y eficientes.

Seguridad en la empresa: el reconocimiento de imágenes permite detectar las caras del equipo de trabajo e identificar quién entra y quién sale de las instalaciones de la compañía. Es decir, las cámaras de seguridad y el Machine Learning pueden ayudar a determinar dónde se encuentra cada miembro del equipo e incluso identificar objetos concretos que la empresa quiera tener bajo control, incrementando así el control y la seguridad dentro de la empresa.


Seguridad IT y antifraude: el Machine Learning permite detectar el comportamiento de posibles intrusos que estén tratando de provocar algún tipo ataque y alertar al personal de IT antes de que suceda. Asimismo, en sitios de comercio electrónico puede determinar qué comportamientos y usuarios está asociados a algún tipo de fraude y reducir el porcentaje de robos a través de tarjetas de crédito falsas.

¿Qué sectores aplican el Machine Learning?

He aquí algunos sectores que ya aplican y se benefician del Machine Learning.

Los bancos utilizan el Machine Learning principalmente para identificar ciertos comportamientos en los datos y prevenir el fraude.


Asimismo, puede ser utilizado para segmentar clientes , fomentar el cross-selling y el up-selling de productos, o evaluar e identificar clientes con perfiles de alto riesgo.

Dependencias como los servicios públicos pueden usar el Machine Learning para analizar datos de diferentes sensores que ayuden en la identificación de maneras para incrementar la eficiencia y ahorrar dinero a las arcas públicas. 


Asimismo, al igual que ocurre en la industria financiera, el Machine Learning puede ayudar a detectar fraudes y minimizar robos de identidad.

Cada vez existen más dispositivos que recopilan información en tiempo real del estado de salud de los pacientes, información que potencia el crecimiento del Machine Learning en la industria de la salud. 


De esta manera se pueden conseguir: alertas y diagnósticos en función de datos del paciente en tiempo real, identificación de enfermedades y evaluación de riesgos, optimización de los triajes o una gestión proactiva de la salud de un individuo.

El modelado y análisis de datos a través de Machine Learning en la industria del transporte suponen grandes herramientas para empresa de mensajería, transporte público y cargo. El análisis de los datos permite identificar pautas y tendencias que ayuden a hacer rutas más eficientes, identificar patrones del tráfico, establecer frecuencias en el transporte público y reconocer problemas potenciales que impliquen mejoras en la rentabilidad.

El sector de la energía también está condicionado por el Machine Learning. Análisis de minerales en el suelo y optimización de la distribución para el sector petrolífero, o el análisis de la demanda y pricing específico por cliente en el sector de la energía eléctrica, son algunos de los ejemplos en los que se está aplicando.

Asimismo, el retail también se ha subido al tren del Machine Learning a la hora de, por ejemplo, planificar inventarios de forma proactiva , fomentando el cross-selling y el up-selling o haciendo una mejor segmentación del mercado y targeting.