+34 902.727.350  info@cloudaws.es  Intranet clientes

Junio 2022 - Partner Especialista Nube AWS: Outsourcing Consultoría, Sysops, Migración y Despliegue.

Novedades: Amazon AWS junio

AWS Elastic Disaster Recovery (DRS) ha agregado soporte para múltiples cuentas provisionales y de destino. Ahora puede replicar y proteger hasta 300 servidores de origen por cada región de AWS. Al utilizar varias cuentas provisionales y de destino, ahora también puede recuperar hasta 3000 servidores de origen replicados en cualquier cuenta de AWS de destino. Esta función facilita y hace más eficiente la recuperación de desastres, la implementación y la supervisión, especialmente en proyectos con gran magnitud.

Puede usar múltiples cuentas provisionales y de destino para separar tus cuentas provisionales (en las que se gestiona la replicación) de tus cuentas de destino (en las que puede recuperar sus servidores de origen). Con esta nueva característica, puede recuperar servidores de origen de varias cuentas provisionales en una sola cuenta de destino de AWS. Esto ofrece una separación que puede ser útil para muchos propósitos, entre los que se incluyen seguridad, facturación y gestión de proyectos. También puede recuperar cada servidor de origen en múltiples cuentas de destino para diferentes propósitos, entre los que se incluyen pruebas, entorno aislado, desarrollo y producción.

AWS Elastic Disaster Recovery es el servicio recomendado para la recuperación de desastres en AWS. Minimiza el tiempo de inactividad y la pérdida de datos con una recuperación rápida y fiable de aplicaciones locales y basadas en la nube mediante un almacenamiento asequible, una computación mínima y una recuperación puntual. Con Elastic Disaster Recovery, puede recuperar sus aplicaciones en AWS desde la infraestructura física, VMware vSphere, Microsoft Hyper-V y la infraestructura de la nube. Además, puede utilizar Elastic Disaster Recovery para recuperar instancias de Amazon EC2 en una región de AWS diferente.

Múltiples cuentas provisionales ahora disponibles en todas las regiones en las que Elastic Disaster Recovery esté disponible.

Obtenga más información sobre las múltiples cuentas provisionales en la guía de usuario de Elastic Disaster Recovery. Para una visión general de Elastic Disaster Recovery, visite nuestra página de productos. Para comenzar, inicie sesión en la consola de Elastic Disaster Recovery.

Hoy, AWS anunció el lanzamiento del enrutamiento basado en IP para Amazon Route 53, el servicio en la nube de sistema de nombres de dominio (DNS) de AWS. Route 53 ofrece a los clientes múltiples opciones de enrutamiento, como el enrutamiento por geolocalización, el enrutamiento por geoproximidad, el enrutamiento basado en la latencia y el enrutamiento ponderado para dirigir a los usuarios finales a los puntos de conexión óptimos. Con la incorporación del enrutamiento basado en IP, los clientes ahora cuentan con la posibilidad adicional de ajustar su enfoque de enrutamiento de DNS basado en el bloque de enrutamiento entre dominios sin clases (CIDR) al que pertenece la dirección IP de origen de la consulta, con lo que se puede aprovechar el conocimiento de la base de usuarios finales para optimizar el rendimiento o los costos de tránsito de la red.

Por ejemplo, ahora puede dirigir a los usuarios finales de ciertas redes de proveedores de servicios de Internet (ISP) a puntos de conexión específicos, como las redes de entrega de contenidos (CDN). Estas asignaciones de ISP a CDN pueden ser únicas para cada cliente y estar basadas en factores como los contratos comerciales con las CDN o la topología de la red de un ISP asociado. Los clientes que han desarrollado mapas de decisión de enrutamiento basados en sus propios análisis y desean aplicarlos de forma integral a Route 53 ahora pueden cargar prefijos de direcciones IP (bloques CIDR) en Route 53, agruparlos en entidades que se pueden volver a utilizar, denominadas colecciones de CIDR, y asociar estas colecciones a uno o varios conjuntos de registros de recursos (RRSets). En el caso de los clientes que deseen aprovechar selectivamente el enrutamiento basado en IP para anulaciones específicas, el enrutamiento basado en IP también se puede utilizar en combinación con los tipos de enrutamiento existentes, como el enrutamiento por geolocalización.

El enrutamiento basado en IP de Route 53 ya se encuentra disponible de forma general en todas las regiones comerciales de AWS y en AWS China. Para obtener información sobre cómo utilizar esta característica, visite Elegir una política de enrutamiento en la documentación de Route 53 y el anuncio de enrutamiento basado en IP en el blog de Redes y entrega de contenido de AWS. Para obtener más información sobre los precios, visite la página de precios de Route 53.

La compatibilidad de AWS Proton con la definición de infraestructura en el lenguaje de configuración HashiCorp (HCL) y el aprovisionamiento de infraestructura con Terraform de código abierto ya está disponible de forma general en todas las regiones en las que Proton está disponible. Los equipos de plataformas ahora pueden definir plantillas de AWS Proton con módulos de Terraform, que se suman a CloudFormation. AWS Proton aprovecha la automatización administrada por el cliente de Terraform para aprovisionar o actualizar la infraestructura. Los clientes pueden utilizar Terraform como su herramienta de definición y aprovisionamiento de infraestructura. AWS Proton mantiene al día los módulos que se utilizan de manera consistente. Este lanzamiento de disponibilidad general incluye compatibilidad con repositorios de BitBucket para la administración de infraestructura y un sistema de mensajería mejorado en el servicio para que el estado de aprovisionamiento quede más claro.

AWS Proton es el primer servicio de implementación de aplicaciones completamente administrado para las aplicaciones de contenedores y sin servidores. Los equipos de plataformas pueden utilizar AWS Proton para conectar y coordinar las diversas herramientas que se necesitan para el aprovisionamiento de la infraestructura, las implementaciones de código, el monitoreo y las actualizaciones en una interfaz de autoservicio seleccionada para desarrolladores. La interfaz de autoservicio brinda a los desarrolladores acceso a la infraestructura aprobada para crear e implementar sus aplicaciones.

Para utilizar AWS Proton con Terraform de código abierto, comience por crear plantillas de AWS Proton para entornos y servicios con módulos de Terraform. A continuación, seleccione un repositorio de configuración. Cuando los equipos de desarrollo creen o actualicen un servicio que utilice Terraform, AWS Proton renderizará los módulos que componen el servicio y realizará una solicitud de extracción al repositorio correspondiente. Cuando el flujo de trabajo se desencadene, aprovisionará la infraestructura. Una vez hecho esto, el flujo de trabajo indicará el estado a AWS Proton. Los desarrolladores pueden conseguir un aprovisionamiento de infraestructuras consistente para sus servicios sin tener que montar y configurar sus módulos de Terraform. Los equipos de plataformas pueden supervisar y actualizar la infraestructura en varios entornos sin tener que revisar el código en diferentes repositorios y carpetas.

Para obtener más información acerca de cómo utilizar AWS Proton con Terraform, lea esto.

Ahora puede utilizar volúmenes elásticos para aumentar la capacidad y ajustar el rendimiento de los volúmenes io2 Block Express de forma dinámica, sin que se produzcan tiempos de inactividad ni impactos en el rendimiento, de la misma forma que con otros volúmenes de EBS. Además, ahora puede crear un volumen io2 Block Express completamente inicializado a partir de una instantánea habilitada para la restauración rápida de instantáneas (FSR). Los volúmenes que se crean a partir de instantáneas habilitadas para FSR entregan instantáneamente su rendimiento aprovisionado. Estas características se agregan a las capacidades del tipo de volumen con mayor rendimiento de EBS: io2 Block Express.

Lanzados en julio de 2021, los volúmenes io2 Block Express ofrecen rendimiento, IOPS y capacidad hasta cuatro veces mayores que los volúmenes io2, además de estar diseñados para entregar una latencia inferior a un milisegundo y una durabilidad del 99,999 %. io2 Block Express se aplica a los volúmenes io2 que se ejecutan en la arquitectura Block Express de EBS. Puede aprovisionar un único volumen io2 que entregue hasta 256 000 IOPS, 4000 MB/s de rendimiento y capacidad de almacenamiento de hasta 64 TiB para ejecutar implementaciones esenciales de Oracle, SAP HANA, Microsoft SQL Server y SAS Analytics. Con soporte para los volúmenes elásticos, puede aumentar de forma dinámica el tamaño del volumen y cambiar el rendimiento (IOPS), lo que proporciona una mayor flexibilidad para establecer el tamaño adecuado del volumen para su carga de trabajo. Además, con FSR puede obtener el rendimiento predecible de un volumen io2 Block Express creado a partir de una instantánea sin tener que inicializar los volúmenes usted mismo. Este rendimiento mejorado y predecible ayuda con diversos casos de uso, como el desarrollo de entornos de VDI; la realización de copias de seguridad y la restauración de archivos; y la creación, la prueba y el desarrollo de copias del volumen.

Cualquier volumen io2 que se adjunte a las instancias R5b, las instancias X2idn/X2iedn y las nuevas instancias C7g siempre se ejecutará en Block Express. Puede administrar los volúmenes io2 con la consola de administración de AWS, la AWS CLI o los AWS SDK. También puede utilizar Amazon Data Lifecycle Manager (Amazon DLM) para crear y administrar de forma automática las instantáneas habilitadas para FSR de los volúmenes io2 Block Express. Estos volúmenes están disponibles en las regiones Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Bombay), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Europa (Fráncfort), Europa (Irlanda) y Europa (Londres). Para obtener más información, consulte la página de información general de producto de io2 Block Express.

Amazon Elastic Container Services (Amazon ECS) brinda una capacidad de autoescalado de clústeres (CAS) para administrar de manera dinámica el escalado de sus grupos de escalado automático (ASG) de Amazon Elastic Compute Cloud (EC2) en su nombre, de modo que usted pueda centrarse en ejecutar sus contenedores. Los proveedores de capacidad son la interfaz de computación que vincula su clúster de Amazon ECS con sus ASG. Con los proveedores de capacidad, puede definir reglas flexibles sobre cómo se ejecutan las cargas de trabajo en contenedores en diferentes tipos de capacidad de cómputo, y administrar la escala de la capacidad. Los proveedores de capacidad mejoran la disponibilidad, la escalabilidad y el costo de ejecutar tareas y servicios en ECS. A partir de hoy, simplificamos el mecanismo de integración entre los proveedores de capacidad y los ASG al realizar la integración de manera directa con una política de escalado de seguimiento de destino en lugar de depender del plan de escalado de AWS Auto Scaling.

Los proveedores de capacidad escalan de manera automática la capacidad de infraestructura dentro de su ASG, según la configuración de capacidad de destino. Antes, Amazon ECS creaba un plan de escalado de AWS Auto Scaling que contenía una única política de escalado de seguimiento de destino para administrar la capacidad de destino del ASG asociado. La política de escalado de seguimiento de destino garantizaba que su ASG contaba con el número requerido de instancias de Amazon EC2 para dar soporte a sus cargas de trabajo. Con el lanzamiento de hoy, hemos simplificado la integración entre los proveedores de capacidad y ASG al eliminar la capa adicional del plan de escalado, de modo que el proveedor de capacidad ahora creará directamente la misma política de seguimiento de destinos para la administración del CAS. Este cambio se aplicará de manera automática a todos los nuevos proveedores de capacidad que cree. No es necesario que realice ninguna acción para actualizar sus proveedores de capacidad existentes. Continuarán funcionando igual que antes, con un plan de escalado que contiene la política de escalado de seguimiento de destinos.

Para obtener más información acerca de cómo funciona el escalado automático de clústeres y detalles adicionales sobre esta actualización, consulte la documentación

AWS Systems Manager anuncia la compatibilidad con el reenvío de puertos a hosts remotos mediante Session Manager. AWS Systems Manager es el centro de operaciones para sus aplicaciones y recursos de AWS y proporciona un solución de administración segura de extremo a extremo para entornos de nube híbrida. Session Manager, una capacidad de Systems Manager, proporciona un acceso seguro a instancias administradas en la nube, locales o en la periferia, sin necesidad de abrir puertos de entrada, administrar claves de Secure Shell (SSH) o utilizar hosts de bastión.

El reenvío de puertos de Session Manager se utiliza para establecer un túnel de comunicaciones entre un equipo cliente y una instancia administrada de Systems Manager. A partir de hoy, Session Manager es compatible con el reenvío de conexiones desde un equipo cliente a puertos de hosts remotos. Con el reenvío de puertos remoto, ahora puede utilizar una instancia administrada como “host de salto” para conectarse de forma segura a un puerto de aplicación en servidores remotos, como bases de datos y servidores web, sin exponer esos servidores a una red externa.

Para empezar, instale el SSM Agent versión 3.1.1374.0 o posterior en las instancias administradas con las que está estableciendo una sesión de reenvío de puertos. Puede iniciar una sesión de reenvío de puertos desde la línea de comandos mediante el documento AWS-StartPortForwardingSessionToRemoteHost Session Manager. Para obtener más información sobre el reenvío de puertos de hosts remotos, consulte la página del producto y la documentación de AWS Systems Manager.

Amazon Web Services (AWS) anuncia la disponibilidad general de las nuevas instancias de uso general M6id de Amazon Elastic Compute Cloud (Amazon EC2). Las instancias M6id se basan en procesadores Intel Xeon Scalable de tercera generación (nombre en código Ice Lake) con una frecuencia turbo de 3,5 GHz para todos los núcleos, equipados con hasta 7,6 TB de almacenamiento en bloque de disco de estado sólido (SSD) local basado en NVMe, y ofrecen hasta un 15 % más de rendimiento de precio en comparación con las instancias M5d. En comparación con las instancias de la generación anterior, las instancias M6id ofrecen hasta un 58 % más de almacenamiento en TB por vCPU y un 34 % menos de costo por TB. Las instancias M6id también vienen con cifrado de memoria de funcionamiento continuo mediante el uso de Intel Total Memory Encryption (TME). Al igual que todas las instancias de EC2 modernas, las instancias M6id se basan en AWS Nitro System, una combinación de hardware dedicado e hipervisor ligero, que entrega la mayor parte de los recursos de computación y de memoria del hardware host a las instancias. Las instancias M6id son ideales para cargas de trabajo que requieren un equilibrio entre recursos informáticos y de memoria junto con almacenamiento local en bloque de alta velocidad y baja latencia, incluido el registro de datos y el procesamiento de medios. Las instancias de M6id también favorecerán a las aplicaciones que necesiten un almacenamiento temporal de datos, como el procesamiento de lotes y registros, y a las aplicaciones que necesitan memorias caché y archivos temporales.

Para satisfacer las demandas de los clientes de una mayor escalabilidad, las instancias M6id ofrecen un nuevo tamaño de instancia (32xlarge) con 128 vCPUs y 512 GiB de memoria (ambos un 33 % más que las instancias más grandes de la generación anterior) y un ancho de banda de memoria por vCPU hasta un 20 % mayor en comparación con las instancias de la generación anterior. Las instancias M6id también proporcionan a los clientes hasta 50 Gbps de velocidad de red y 40 Gbps de ancho de banda a Amazon Elastic Block Store, el doble que las instancias comparables de la generación anterior. Los clientes pueden utilizar Elastic Fabric Adapter en el tamaño 32xlarge, lo que habilita una baja latencia y una comunicación entre nodos altamente escalable. Para obtener un rendimiento óptimo de la red en estas nuevas instancias, es posible que se necesite el último controlador del adaptador de red elástico (ENA). Para obtener más información sobre el controlador del ENA óptimo para M6id, consulte ¿Qué se debe hacer antes de migrar la instancia de EC2? 

Estas instancias se encuentran disponibles de forma general actualmente en estas regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda). Las instancias de M6id se encuentran disponibles en 10 tamaños, con 2, 4, 8, 16, 32, 48, 64, 96 y 128 vCPUs, incluido el tamaño de metal. Los clientes pueden adquirir las nuevas instancias a través de Savings Plans, instancias reservadas, instancias bajo demanda e instancias de spot. Para comenzar, consulte la Consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, instancias M6i de Amazon EC2.

Amazon Managed Grafana ahora admite una nueva API para crear tokens de la API de Grafana, así como es compatible con nuevos complementos, la versión 8.4 de Grafana y etiquetas de espacio de trabajo. Mediante CreateWorkspaceApiKey, los clientes pueden crear tokens de la API de Grafana sin necesidad de iniciar sesión en la consola del espacio de trabajo de Grafana, con lo cual los usuarios pueden crear, eliminar y administrar mediante programación recursos de Grafana, como paneles, alertas y orígenes de datos. Amazon Managed Grafana agrega compatibilidad con complementos de Github, Moogsoft, Pixie y Windrose, por lo que ahora los clientes pueden conectar, consultar y visualizar datos a partir de orígenes de datos adicionales. Los espacios de trabajo existentes y nuevos de Amazon Managed Grafana ahora admiten la versión 8.4 de Grafana, para lo cual no se requiere ninguna acción por parte de los usuarios. Los clientes ahora pueden etiquetar los espacios de trabajo de Amazon Managed Grafana y de ese modo simplificar la administración de la organización y los costos de los espacios de trabajo. Las etiquetas son marcas de pares de clave y valor que se pueden asociar a los espacios de trabajo de Amazon Managed Grafana para buscar, filtrar o asignar costos.

Amazon Managed Grafana es un servicio completamente administrado que se encarga del aprovisionamiento, configuración, escalado y mantenimiento de servidores de Grafana. Se encuentra disponible de forma general en las siguientes regiones: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort), Europa (Londres), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Asia-Pacífico (Sídney) y Asia-Pacífico (Seúl). Para comenzar a crear un espacio de trabajo, consulte la consola de AWS o revise la Guía del usuario de Amazon Managed Grafana para obtener documentación detallada. Para obtener más información, visite la página del producto de Amazon Managed Grafana, la página de precios y la página de recetas de observabilidad de AWS para obtener plantillas de inicio.

Hoy, Amazon EC2 anunció la característica de Protección contra detenciones que permite a los clientes proteger las instancias frente a acciones de detención accidentales. Anteriormente, los clientes podían proteger las instancias contra acciones de terminación involuntarias mediante la activación de la Protección contra terminaciones. Gracias a la Protección contra detenciones, los clientes que tienen cargas de trabajo con estado pueden proteger los datos de los volúmenes del almacén de instancias contra las acciones de detención y terminación involuntarias.

Cuando está activada, la característica de Protección contra detenciones bloquea los intentos de detener o terminar la instancia a través de la consola, la API o la CLI de EC2. Esta característica brinda una medida extra de protección para las cargas de trabajo con estado, ya que las instancias se pueden detener o terminar únicamente si se desactiva la característica de Protección contra detenciones.

Para obtener más información, visite la página Detener e iniciar instancias.

La nueva generación de instancias C7g de Amazon EC2 optimizadas para computación ya está disponible de manera general. Las instancias C7g son las primeras instancias que cuentan con la tecnología de los nuevos procesadores Graviton3 de AWS, y brindan un rendimiento hasta un 25 % mejor respecto a las instancias C6g basadas en Graviton2 para una amplia variedad de aplicaciones, como servidores de aplicaciones, microservicios, procesamiento por lotes, Electronic Design Automation (EDA), videojuegos, cifrado de video, generación de modelos científicos, análisis distribuido, computación de alto rendimiento (HPC), inferencia de machine learning (ML) basado en CPU y entrega de anuncios.

Los procesadores AWS Graviton 3 son la nueva generación de procesadores AWS Graviton personalizados que brindan la mejor relación precio-rendimiento para cargas de trabajo en Amazon Elastic Compute Cloud (Amazon EC2). Ofrecen hasta el doble rendimiento de punto flotante, un rendimiento de cifrado hasta el doble de rápido y un rendimiento de ML hasta tres veces superior, con compatibilidad incluida con bfloat16, en comparación con los procesadores AWS Graviton2. Las instancias C7g basadas en Graviton3 son las primeras instancias disponibles de manera general en la nube que cuentan con la memoria DDR5 más reciente, que brinda un 50 % más de ancho de banda de memoria en comparación con DDR4, de modo que permite acceso de alto velocidad a los datos en memoria. Las instancias basadas en Graviton3 también utilizan hasta un 60 % menos de energía para el mismo nivel de rendimiento que las instancias de EC2 comparables, lo que le permite reducir su huella de carbono en la nube. Las instancias C7g de Amazon EC2 están diseñadas a partir del sistema Nitro de AWS, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios de nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Ofrecen un ancho de banda de la red mejorado de hasta 30 Gbps y hasta 20 Gbps de ancho de banda a Amazon Elastic Block Store (Amazon EBS).

Desde el anuncio de la versión preliminar en re:Invent 2021, cientos de clientes, incluidos Epic Games, Formula 1, NextRoll, Snap, Sprinklr y Twitter, han probado sus cargas de trabajo en instancias C7g basadas en Graviton3 y han observado una mejora notable del rendimiento en comparación con las instancias C6g basadas en Graviton2. Twitter ejecutó varias pruebas representativas de sus cargas de trabajo y descubrió que C7g ofreció un rendimiento hasta un 80 % mejor que la generación C6g anterior. Además, informaron de una reducción de la latencia de cola de un nada despreciable 35 %. Formula 1 ejecutó sus cargas de trabajo de dinámicas de fluidos computaciones en C7g y descubrió que presentaban un rendimiento un 40 % superior al de las instancias C6g. Honeycomb.io, que adoptó Graviton desde el principio, observó una mejora del rendimiento del 35 % y una reducción del 30 % de la latencia en comparación con C6g para su carga de trabajo de incorporación de telemetría.

Las instancias de Amazon EC2 cuentan con la tecnología de la familia de procesadores Graviton de AWS, incluidas las instancias C7g, compatibles con muchos de los sistemas operativos de Linux populares, como Amazon Linux 2, Red Hat Enterprise Linux, SUSE y Ubuntu. El programa AWS Graviton Ready le brinda diferentes soluciones certificadas para seguridad, supervisión y administración, contenedores y CI/CD de proveedores externos que pueden utilizarse en instancias basadas en Graviton. Muchos servicios de AWS también son compatibles con instancias basadas en Graviton, lo que hace que sea fácil y rápido descubrir las ventajas en precio y rendimiento. Entre los servicios de AWS compatibles con las instancias basadas en Graviton se incluyen Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Lambda, AWS Fargate, Amazon Aurora, Amazon Relational Database Service (Amazon RDS), Amazon EMR y Amazon ElastiCache.

Las instancias C7g de Amazon EC2 ya están disponibles en las siguientes regiones de AWS de EE. UU: Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Estas instancias están disponibles en 8 tamaños, con 1, 2, 4, 8, 16, 32, 48 y 64 CPU virtuales y pueden adquirirse bajo demanda, como instancias reservadas, instancias de spot o parte de Savings Plans. Para comenzar a usar las instancias C7g de Amazon EC2 basadas en Graviton3 de AWS, vaya a la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. También puede comenzar con instancias basadas en Graviton sin cargo con la prueba gratuita de T4g, que brinda hasta 750 horas por mes con las instancias t4g.small hasta el 31 de diciembre de 2022. Para obtener más información, consulte Procesador Graviton de AWSInstancias C7g de Amazon EC2 o Introducción a Graviton.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...
Subscribe to this RSS feed

CONTACTE CON CLOUDAWS: PARTNER AWS

Teléfono:

902 727 350

Web:

Formulario de contacto

Email:

javier.root@cloudaws.es