+34 902.727.350  info@cloudaws.es  Intranet clientes

Novedades: Amazon AWS junio

AWS Elastic Disaster Recovery (DRS) ha agregado soporte para múltiples cuentas provisionales y de destino. Ahora puede replicar y proteger hasta 300 servidores de origen por cada región de AWS. Al utilizar varias cuentas provisionales y de destino, ahora también puede recuperar hasta 3000 servidores de origen replicados en cualquier cuenta de AWS de destino. Esta función facilita y hace más eficiente la recuperación de desastres, la implementación y la supervisión, especialmente en proyectos con gran magnitud.

Puede usar múltiples cuentas provisionales y de destino para separar tus cuentas provisionales (en las que se gestiona la replicación) de tus cuentas de destino (en las que puede recuperar sus servidores de origen). Con esta nueva característica, puede recuperar servidores de origen de varias cuentas provisionales en una sola cuenta de destino de AWS. Esto ofrece una separación que puede ser útil para muchos propósitos, entre los que se incluyen seguridad, facturación y gestión de proyectos. También puede recuperar cada servidor de origen en múltiples cuentas de destino para diferentes propósitos, entre los que se incluyen pruebas, entorno aislado, desarrollo y producción.

AWS Elastic Disaster Recovery es el servicio recomendado para la recuperación de desastres en AWS. Minimiza el tiempo de inactividad y la pérdida de datos con una recuperación rápida y fiable de aplicaciones locales y basadas en la nube mediante un almacenamiento asequible, una computación mínima y una recuperación puntual. Con Elastic Disaster Recovery, puede recuperar sus aplicaciones en AWS desde la infraestructura física, VMware vSphere, Microsoft Hyper-V y la infraestructura de la nube. Además, puede utilizar Elastic Disaster Recovery para recuperar instancias de Amazon EC2 en una región de AWS diferente.

Múltiples cuentas provisionales ahora disponibles en todas las regiones en las que Elastic Disaster Recovery esté disponible.

Obtenga más información sobre las múltiples cuentas provisionales en la guía de usuario de Elastic Disaster Recovery. Para una visión general de Elastic Disaster Recovery, visite nuestra página de productos. Para comenzar, inicie sesión en la consola de Elastic Disaster Recovery.

Hoy, AWS anunció el lanzamiento del enrutamiento basado en IP para Amazon Route 53, el servicio en la nube de sistema de nombres de dominio (DNS) de AWS. Route 53 ofrece a los clientes múltiples opciones de enrutamiento, como el enrutamiento por geolocalización, el enrutamiento por geoproximidad, el enrutamiento basado en la latencia y el enrutamiento ponderado para dirigir a los usuarios finales a los puntos de conexión óptimos. Con la incorporación del enrutamiento basado en IP, los clientes ahora cuentan con la posibilidad adicional de ajustar su enfoque de enrutamiento de DNS basado en el bloque de enrutamiento entre dominios sin clases (CIDR) al que pertenece la dirección IP de origen de la consulta, con lo que se puede aprovechar el conocimiento de la base de usuarios finales para optimizar el rendimiento o los costos de tránsito de la red.

Por ejemplo, ahora puede dirigir a los usuarios finales de ciertas redes de proveedores de servicios de Internet (ISP) a puntos de conexión específicos, como las redes de entrega de contenidos (CDN). Estas asignaciones de ISP a CDN pueden ser únicas para cada cliente y estar basadas en factores como los contratos comerciales con las CDN o la topología de la red de un ISP asociado. Los clientes que han desarrollado mapas de decisión de enrutamiento basados en sus propios análisis y desean aplicarlos de forma integral a Route 53 ahora pueden cargar prefijos de direcciones IP (bloques CIDR) en Route 53, agruparlos en entidades que se pueden volver a utilizar, denominadas colecciones de CIDR, y asociar estas colecciones a uno o varios conjuntos de registros de recursos (RRSets). En el caso de los clientes que deseen aprovechar selectivamente el enrutamiento basado en IP para anulaciones específicas, el enrutamiento basado en IP también se puede utilizar en combinación con los tipos de enrutamiento existentes, como el enrutamiento por geolocalización.

El enrutamiento basado en IP de Route 53 ya se encuentra disponible de forma general en todas las regiones comerciales de AWS y en AWS China. Para obtener información sobre cómo utilizar esta característica, visite Elegir una política de enrutamiento en la documentación de Route 53 y el anuncio de enrutamiento basado en IP en el blog de Redes y entrega de contenido de AWS. Para obtener más información sobre los precios, visite la página de precios de Route 53.

La compatibilidad de AWS Proton con la definición de infraestructura en el lenguaje de configuración HashiCorp (HCL) y el aprovisionamiento de infraestructura con Terraform de código abierto ya está disponible de forma general en todas las regiones en las que Proton está disponible. Los equipos de plataformas ahora pueden definir plantillas de AWS Proton con módulos de Terraform, que se suman a CloudFormation. AWS Proton aprovecha la automatización administrada por el cliente de Terraform para aprovisionar o actualizar la infraestructura. Los clientes pueden utilizar Terraform como su herramienta de definición y aprovisionamiento de infraestructura. AWS Proton mantiene al día los módulos que se utilizan de manera consistente. Este lanzamiento de disponibilidad general incluye compatibilidad con repositorios de BitBucket para la administración de infraestructura y un sistema de mensajería mejorado en el servicio para que el estado de aprovisionamiento quede más claro.

AWS Proton es el primer servicio de implementación de aplicaciones completamente administrado para las aplicaciones de contenedores y sin servidores. Los equipos de plataformas pueden utilizar AWS Proton para conectar y coordinar las diversas herramientas que se necesitan para el aprovisionamiento de la infraestructura, las implementaciones de código, el monitoreo y las actualizaciones en una interfaz de autoservicio seleccionada para desarrolladores. La interfaz de autoservicio brinda a los desarrolladores acceso a la infraestructura aprobada para crear e implementar sus aplicaciones.

Para utilizar AWS Proton con Terraform de código abierto, comience por crear plantillas de AWS Proton para entornos y servicios con módulos de Terraform. A continuación, seleccione un repositorio de configuración. Cuando los equipos de desarrollo creen o actualicen un servicio que utilice Terraform, AWS Proton renderizará los módulos que componen el servicio y realizará una solicitud de extracción al repositorio correspondiente. Cuando el flujo de trabajo se desencadene, aprovisionará la infraestructura. Una vez hecho esto, el flujo de trabajo indicará el estado a AWS Proton. Los desarrolladores pueden conseguir un aprovisionamiento de infraestructuras consistente para sus servicios sin tener que montar y configurar sus módulos de Terraform. Los equipos de plataformas pueden supervisar y actualizar la infraestructura en varios entornos sin tener que revisar el código en diferentes repositorios y carpetas.

Para obtener más información acerca de cómo utilizar AWS Proton con Terraform, lea esto.

Ahora puede utilizar volúmenes elásticos para aumentar la capacidad y ajustar el rendimiento de los volúmenes io2 Block Express de forma dinámica, sin que se produzcan tiempos de inactividad ni impactos en el rendimiento, de la misma forma que con otros volúmenes de EBS. Además, ahora puede crear un volumen io2 Block Express completamente inicializado a partir de una instantánea habilitada para la restauración rápida de instantáneas (FSR). Los volúmenes que se crean a partir de instantáneas habilitadas para FSR entregan instantáneamente su rendimiento aprovisionado. Estas características se agregan a las capacidades del tipo de volumen con mayor rendimiento de EBS: io2 Block Express.

Lanzados en julio de 2021, los volúmenes io2 Block Express ofrecen rendimiento, IOPS y capacidad hasta cuatro veces mayores que los volúmenes io2, además de estar diseñados para entregar una latencia inferior a un milisegundo y una durabilidad del 99,999 %. io2 Block Express se aplica a los volúmenes io2 que se ejecutan en la arquitectura Block Express de EBS. Puede aprovisionar un único volumen io2 que entregue hasta 256 000 IOPS, 4000 MB/s de rendimiento y capacidad de almacenamiento de hasta 64 TiB para ejecutar implementaciones esenciales de Oracle, SAP HANA, Microsoft SQL Server y SAS Analytics. Con soporte para los volúmenes elásticos, puede aumentar de forma dinámica el tamaño del volumen y cambiar el rendimiento (IOPS), lo que proporciona una mayor flexibilidad para establecer el tamaño adecuado del volumen para su carga de trabajo. Además, con FSR puede obtener el rendimiento predecible de un volumen io2 Block Express creado a partir de una instantánea sin tener que inicializar los volúmenes usted mismo. Este rendimiento mejorado y predecible ayuda con diversos casos de uso, como el desarrollo de entornos de VDI; la realización de copias de seguridad y la restauración de archivos; y la creación, la prueba y el desarrollo de copias del volumen.

Cualquier volumen io2 que se adjunte a las instancias R5b, las instancias X2idn/X2iedn y las nuevas instancias C7g siempre se ejecutará en Block Express. Puede administrar los volúmenes io2 con la consola de administración de AWS, la AWS CLI o los AWS SDK. También puede utilizar Amazon Data Lifecycle Manager (Amazon DLM) para crear y administrar de forma automática las instantáneas habilitadas para FSR de los volúmenes io2 Block Express. Estos volúmenes están disponibles en las regiones Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Bombay), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Europa (Fráncfort), Europa (Irlanda) y Europa (Londres). Para obtener más información, consulte la página de información general de producto de io2 Block Express.

Amazon Elastic Container Services (Amazon ECS) brinda una capacidad de autoescalado de clústeres (CAS) para administrar de manera dinámica el escalado de sus grupos de escalado automático (ASG) de Amazon Elastic Compute Cloud (EC2) en su nombre, de modo que usted pueda centrarse en ejecutar sus contenedores. Los proveedores de capacidad son la interfaz de computación que vincula su clúster de Amazon ECS con sus ASG. Con los proveedores de capacidad, puede definir reglas flexibles sobre cómo se ejecutan las cargas de trabajo en contenedores en diferentes tipos de capacidad de cómputo, y administrar la escala de la capacidad. Los proveedores de capacidad mejoran la disponibilidad, la escalabilidad y el costo de ejecutar tareas y servicios en ECS. A partir de hoy, simplificamos el mecanismo de integración entre los proveedores de capacidad y los ASG al realizar la integración de manera directa con una política de escalado de seguimiento de destino en lugar de depender del plan de escalado de AWS Auto Scaling.

Los proveedores de capacidad escalan de manera automática la capacidad de infraestructura dentro de su ASG, según la configuración de capacidad de destino. Antes, Amazon ECS creaba un plan de escalado de AWS Auto Scaling que contenía una única política de escalado de seguimiento de destino para administrar la capacidad de destino del ASG asociado. La política de escalado de seguimiento de destino garantizaba que su ASG contaba con el número requerido de instancias de Amazon EC2 para dar soporte a sus cargas de trabajo. Con el lanzamiento de hoy, hemos simplificado la integración entre los proveedores de capacidad y ASG al eliminar la capa adicional del plan de escalado, de modo que el proveedor de capacidad ahora creará directamente la misma política de seguimiento de destinos para la administración del CAS. Este cambio se aplicará de manera automática a todos los nuevos proveedores de capacidad que cree. No es necesario que realice ninguna acción para actualizar sus proveedores de capacidad existentes. Continuarán funcionando igual que antes, con un plan de escalado que contiene la política de escalado de seguimiento de destinos.

Para obtener más información acerca de cómo funciona el escalado automático de clústeres y detalles adicionales sobre esta actualización, consulte la documentación

AWS Systems Manager anuncia la compatibilidad con el reenvío de puertos a hosts remotos mediante Session Manager. AWS Systems Manager es el centro de operaciones para sus aplicaciones y recursos de AWS y proporciona un solución de administración segura de extremo a extremo para entornos de nube híbrida. Session Manager, una capacidad de Systems Manager, proporciona un acceso seguro a instancias administradas en la nube, locales o en la periferia, sin necesidad de abrir puertos de entrada, administrar claves de Secure Shell (SSH) o utilizar hosts de bastión.

El reenvío de puertos de Session Manager se utiliza para establecer un túnel de comunicaciones entre un equipo cliente y una instancia administrada de Systems Manager. A partir de hoy, Session Manager es compatible con el reenvío de conexiones desde un equipo cliente a puertos de hosts remotos. Con el reenvío de puertos remoto, ahora puede utilizar una instancia administrada como “host de salto” para conectarse de forma segura a un puerto de aplicación en servidores remotos, como bases de datos y servidores web, sin exponer esos servidores a una red externa.

Para empezar, instale el SSM Agent versión 3.1.1374.0 o posterior en las instancias administradas con las que está estableciendo una sesión de reenvío de puertos. Puede iniciar una sesión de reenvío de puertos desde la línea de comandos mediante el documento AWS-StartPortForwardingSessionToRemoteHost Session Manager. Para obtener más información sobre el reenvío de puertos de hosts remotos, consulte la página del producto y la documentación de AWS Systems Manager.

Amazon Web Services (AWS) anuncia la disponibilidad general de las nuevas instancias de uso general M6id de Amazon Elastic Compute Cloud (Amazon EC2). Las instancias M6id se basan en procesadores Intel Xeon Scalable de tercera generación (nombre en código Ice Lake) con una frecuencia turbo de 3,5 GHz para todos los núcleos, equipados con hasta 7,6 TB de almacenamiento en bloque de disco de estado sólido (SSD) local basado en NVMe, y ofrecen hasta un 15 % más de rendimiento de precio en comparación con las instancias M5d. En comparación con las instancias de la generación anterior, las instancias M6id ofrecen hasta un 58 % más de almacenamiento en TB por vCPU y un 34 % menos de costo por TB. Las instancias M6id también vienen con cifrado de memoria de funcionamiento continuo mediante el uso de Intel Total Memory Encryption (TME). Al igual que todas las instancias de EC2 modernas, las instancias M6id se basan en AWS Nitro System, una combinación de hardware dedicado e hipervisor ligero, que entrega la mayor parte de los recursos de computación y de memoria del hardware host a las instancias. Las instancias M6id son ideales para cargas de trabajo que requieren un equilibrio entre recursos informáticos y de memoria junto con almacenamiento local en bloque de alta velocidad y baja latencia, incluido el registro de datos y el procesamiento de medios. Las instancias de M6id también favorecerán a las aplicaciones que necesiten un almacenamiento temporal de datos, como el procesamiento de lotes y registros, y a las aplicaciones que necesitan memorias caché y archivos temporales.

Para satisfacer las demandas de los clientes de una mayor escalabilidad, las instancias M6id ofrecen un nuevo tamaño de instancia (32xlarge) con 128 vCPUs y 512 GiB de memoria (ambos un 33 % más que las instancias más grandes de la generación anterior) y un ancho de banda de memoria por vCPU hasta un 20 % mayor en comparación con las instancias de la generación anterior. Las instancias M6id también proporcionan a los clientes hasta 50 Gbps de velocidad de red y 40 Gbps de ancho de banda a Amazon Elastic Block Store, el doble que las instancias comparables de la generación anterior. Los clientes pueden utilizar Elastic Fabric Adapter en el tamaño 32xlarge, lo que habilita una baja latencia y una comunicación entre nodos altamente escalable. Para obtener un rendimiento óptimo de la red en estas nuevas instancias, es posible que se necesite el último controlador del adaptador de red elástico (ENA). Para obtener más información sobre el controlador del ENA óptimo para M6id, consulte ¿Qué se debe hacer antes de migrar la instancia de EC2? 

Estas instancias se encuentran disponibles de forma general actualmente en estas regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda). Las instancias de M6id se encuentran disponibles en 10 tamaños, con 2, 4, 8, 16, 32, 48, 64, 96 y 128 vCPUs, incluido el tamaño de metal. Los clientes pueden adquirir las nuevas instancias a través de Savings Plans, instancias reservadas, instancias bajo demanda e instancias de spot. Para comenzar, consulte la Consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, instancias M6i de Amazon EC2.

Amazon Managed Grafana ahora admite una nueva API para crear tokens de la API de Grafana, así como es compatible con nuevos complementos, la versión 8.4 de Grafana y etiquetas de espacio de trabajo. Mediante CreateWorkspaceApiKey, los clientes pueden crear tokens de la API de Grafana sin necesidad de iniciar sesión en la consola del espacio de trabajo de Grafana, con lo cual los usuarios pueden crear, eliminar y administrar mediante programación recursos de Grafana, como paneles, alertas y orígenes de datos. Amazon Managed Grafana agrega compatibilidad con complementos de Github, Moogsoft, Pixie y Windrose, por lo que ahora los clientes pueden conectar, consultar y visualizar datos a partir de orígenes de datos adicionales. Los espacios de trabajo existentes y nuevos de Amazon Managed Grafana ahora admiten la versión 8.4 de Grafana, para lo cual no se requiere ninguna acción por parte de los usuarios. Los clientes ahora pueden etiquetar los espacios de trabajo de Amazon Managed Grafana y de ese modo simplificar la administración de la organización y los costos de los espacios de trabajo. Las etiquetas son marcas de pares de clave y valor que se pueden asociar a los espacios de trabajo de Amazon Managed Grafana para buscar, filtrar o asignar costos.

Amazon Managed Grafana es un servicio completamente administrado que se encarga del aprovisionamiento, configuración, escalado y mantenimiento de servidores de Grafana. Se encuentra disponible de forma general en las siguientes regiones: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort), Europa (Londres), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Asia-Pacífico (Sídney) y Asia-Pacífico (Seúl). Para comenzar a crear un espacio de trabajo, consulte la consola de AWS o revise la Guía del usuario de Amazon Managed Grafana para obtener documentación detallada. Para obtener más información, visite la página del producto de Amazon Managed Grafana, la página de precios y la página de recetas de observabilidad de AWS para obtener plantillas de inicio.

Hoy, Amazon EC2 anunció la característica de Protección contra detenciones que permite a los clientes proteger las instancias frente a acciones de detención accidentales. Anteriormente, los clientes podían proteger las instancias contra acciones de terminación involuntarias mediante la activación de la Protección contra terminaciones. Gracias a la Protección contra detenciones, los clientes que tienen cargas de trabajo con estado pueden proteger los datos de los volúmenes del almacén de instancias contra las acciones de detención y terminación involuntarias.

Cuando está activada, la característica de Protección contra detenciones bloquea los intentos de detener o terminar la instancia a través de la consola, la API o la CLI de EC2. Esta característica brinda una medida extra de protección para las cargas de trabajo con estado, ya que las instancias se pueden detener o terminar únicamente si se desactiva la característica de Protección contra detenciones.

Para obtener más información, visite la página Detener e iniciar instancias.

La nueva generación de instancias C7g de Amazon EC2 optimizadas para computación ya está disponible de manera general. Las instancias C7g son las primeras instancias que cuentan con la tecnología de los nuevos procesadores Graviton3 de AWS, y brindan un rendimiento hasta un 25 % mejor respecto a las instancias C6g basadas en Graviton2 para una amplia variedad de aplicaciones, como servidores de aplicaciones, microservicios, procesamiento por lotes, Electronic Design Automation (EDA), videojuegos, cifrado de video, generación de modelos científicos, análisis distribuido, computación de alto rendimiento (HPC), inferencia de machine learning (ML) basado en CPU y entrega de anuncios.

Los procesadores AWS Graviton 3 son la nueva generación de procesadores AWS Graviton personalizados que brindan la mejor relación precio-rendimiento para cargas de trabajo en Amazon Elastic Compute Cloud (Amazon EC2). Ofrecen hasta el doble rendimiento de punto flotante, un rendimiento de cifrado hasta el doble de rápido y un rendimiento de ML hasta tres veces superior, con compatibilidad incluida con bfloat16, en comparación con los procesadores AWS Graviton2. Las instancias C7g basadas en Graviton3 son las primeras instancias disponibles de manera general en la nube que cuentan con la memoria DDR5 más reciente, que brinda un 50 % más de ancho de banda de memoria en comparación con DDR4, de modo que permite acceso de alto velocidad a los datos en memoria. Las instancias basadas en Graviton3 también utilizan hasta un 60 % menos de energía para el mismo nivel de rendimiento que las instancias de EC2 comparables, lo que le permite reducir su huella de carbono en la nube. Las instancias C7g de Amazon EC2 están diseñadas a partir del sistema Nitro de AWS, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios de nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Ofrecen un ancho de banda de la red mejorado de hasta 30 Gbps y hasta 20 Gbps de ancho de banda a Amazon Elastic Block Store (Amazon EBS).

Desde el anuncio de la versión preliminar en re:Invent 2021, cientos de clientes, incluidos Epic Games, Formula 1, NextRoll, Snap, Sprinklr y Twitter, han probado sus cargas de trabajo en instancias C7g basadas en Graviton3 y han observado una mejora notable del rendimiento en comparación con las instancias C6g basadas en Graviton2. Twitter ejecutó varias pruebas representativas de sus cargas de trabajo y descubrió que C7g ofreció un rendimiento hasta un 80 % mejor que la generación C6g anterior. Además, informaron de una reducción de la latencia de cola de un nada despreciable 35 %. Formula 1 ejecutó sus cargas de trabajo de dinámicas de fluidos computaciones en C7g y descubrió que presentaban un rendimiento un 40 % superior al de las instancias C6g. Honeycomb.io, que adoptó Graviton desde el principio, observó una mejora del rendimiento del 35 % y una reducción del 30 % de la latencia en comparación con C6g para su carga de trabajo de incorporación de telemetría.

Las instancias de Amazon EC2 cuentan con la tecnología de la familia de procesadores Graviton de AWS, incluidas las instancias C7g, compatibles con muchos de los sistemas operativos de Linux populares, como Amazon Linux 2, Red Hat Enterprise Linux, SUSE y Ubuntu. El programa AWS Graviton Ready le brinda diferentes soluciones certificadas para seguridad, supervisión y administración, contenedores y CI/CD de proveedores externos que pueden utilizarse en instancias basadas en Graviton. Muchos servicios de AWS también son compatibles con instancias basadas en Graviton, lo que hace que sea fácil y rápido descubrir las ventajas en precio y rendimiento. Entre los servicios de AWS compatibles con las instancias basadas en Graviton se incluyen Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Lambda, AWS Fargate, Amazon Aurora, Amazon Relational Database Service (Amazon RDS), Amazon EMR y Amazon ElastiCache.

Las instancias C7g de Amazon EC2 ya están disponibles en las siguientes regiones de AWS de EE. UU: Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Estas instancias están disponibles en 8 tamaños, con 1, 2, 4, 8, 16, 32, 48 y 64 CPU virtuales y pueden adquirirse bajo demanda, como instancias reservadas, instancias de spot o parte de Savings Plans. Para comenzar a usar las instancias C7g de Amazon EC2 basadas en Graviton3 de AWS, vaya a la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. También puede comenzar con instancias basadas en Graviton sin cargo con la prueba gratuita de T4g, que brinda hasta 750 horas por mes con las instancias t4g.small hasta el 31 de diciembre de 2022. Para obtener más información, consulte Procesador Graviton de AWSInstancias C7g de Amazon EC2 o Introducción a Graviton.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS febrero

La replicación de Amazon S3 es una característica elástica, completamente administrada y de bajo costo que replica los objetos cargados recientemente en dos o más buckets de Amazon S3, manteniendo los buckets sincronizados. Gracias a la replicación por lotes de S3, ahora es posible sincronizar los objetos existentes entre los buckets.

Puede utilizar la replicación por lotes de S3 para replicar un bucket creado recientemente con objetos existentes, reintentar objetos que no se pudieron replicar anteriormente, migrar datos entre cuentas o agregar nuevos buckets a su lago de datos. La replicación por lotes de S3 funciona con cualquier volumen de datos, ofreciéndole un modo completamente administrado de satisfacer sus necesidades de seguridad y cumplimiento de datos, recuperación de desastres y optimización del rendimiento. Puede comenzar a utilizar la replicación por lotes de S3 con unos pocos clics en la consola de S3 o con una solicitud a la API.

Para iniciar la replicación por lotes de S3, puede proporcionar una lista de objetos para replicar o hacer que Amazon S3 compile una lista por usted especificando el bucket de origen y filtros adicionales como la fecha de creación del objeto y el estado de la replicación. La lista generada por S3 se denomina Manifiesto y puede revisarla antes de que se inicie el trabajo para asegurarse de que la lista de objetos es correcta. La replicación por lotes de S3 se construye utilizando las operaciones por lotes de S3 para replicar objetos de forma asíncrona. Al igual que con otros trabajos de operaciones por lotes de S3, tendrá una visión completa del progreso del trabajo, incluyendo el tiempo de ejecución y el porcentaje de objetos completados. También puede recibir un informe de finalización detallado con el estado de cada objeto al terminar.

La replicación por lotes de S3 complementa las funciones de replicación de S3 existentes: Replicación dentro de una misma región (SRR) y Replicación entre regiones (CRR). Mientras que SRR y CRR replican automáticamente los nuevos objetos entre los buckets, ahora puede replicar los objetos existentes utilizando la replicación por lotes de S3. La replicación por lotes de S3 también replica los objetos independientemente de su estado de replicación, es decir, si nunca se han replicado, si no se han podido replicar previamente o si se han replicado previamente como parte de otro flujo de trabajo.

La replicación por lotes de S3 está disponible en todas las regiones de AWS, incluidas las regiones de AWS GovCloud (EE. UU.), la región de AWS China (Pekín), operada por Sinnet, y la región de AWS (Ningxia), operada por NWCD. Puede comenzar con la replicación por lotes de S3 a través de la consola de S3, la interfaz de línea de comandos de AWS (CLI), la interfaz de programa de aplicación (API) o el cliente del kit de desarrollo de software (SDK) de AWS. Para obtener más información acerca de los precios, visite la pestaña Replicación de la página de precios de Amazon S3. Para obtener más información sobre la replicación por lotes de S3, visite la Guía del usuario de S3 o lea el blog de noticias de AWS.

Lanzamiento de una nueva característica de enriquecimiento por geolocalización para los modelos de machine learning (ML) de Amazon Fraud Detector que calcula automáticamente la distancia entre la dirección IP, la dirección de facturación y la dirección de envío proporcionadas para un evento. De esta forma, se ayuda a evitar más fraudes, sobre todo cuando un usuario intenta crear una cuenta con los datos de otra persona o realizar una transacción con la tarjeta de crédito de alguien más.

Amazon Fraud Detector es un servicio completamente administrado que facilita en mayor medida la identificación de actividades en línea potencialmente fraudulentas, como la creación de cuentas falsas o el fraude en los pagos en línea. Con una estructura interna basada en ML y más de 20 años de experiencia en detección de fraude, Amazon Fraud Detector identifica automáticamente actividad potencialmente fraudulenta en milisegundos, sin necesidad de experiencia en ML. Como parte del proceso de entrenamiento de modelos, Amazon Fraud Detector enriquece los elementos de datos sin procesar, como las direcciones IP, los números de identificación bancaria (BIN) y los números de teléfono para crear docenas de entradas adicionales para su modelo de detección de fraude.

A partir de hoy, el Amazon Fraud Detector calcula automáticamente la distancia física entre la dirección IP, la dirección de facturación y la dirección de envío que usted proporciona para un evento. Las distancias calculadas se utilizan entonces como entradas para el modelo de detección de fraude. Este nuevo enriquecimiento aumenta el rendimiento de los modelos que utilizan estas variables, lo que permite que estos modelos capturen hasta un 10 % más de casos de fraude con una tasa de falsos positivos del 3 %

El enriquecimiento por geolocalización se habilita automáticamente para todos los modelos en todas las regiones en las que está disponible Amazon Fraud Detector. Los clientes de Amazon Fraud Detector pueden aprovechar este nuevo enriquecimiento mediante el reentrenamiento de los modelos que utilicen la variable de dirección IP, así como las de dirección de envío o dirección de facturación. Para obtener más información, consulte nuestra página de documentación.

Ya puede utilizar la lista de prefijos administrada por AWS para Amazon CloudFront con el fin de limitar el tráfico HTTP/HTTPS entrante a los orígenes desde solo las direcciones IP que pertenecen a los servidores orientados al origen de CloudFront. CloudFront mantiene actualizada la lista de prefijos administrada con las direcciones IP de los servidores orientados al origen de CloudFront para que no tenga que mantener una lista de prefijos usted mismo.

Puede consultar la lista de prefijos administrada para CloudFront en sus reglas de grupo de seguridad de Amazon Virtual Private Cloud (VPC), la tabla de enrutamiento de subred, las reglas de grupo de seguridad comunes con AWS Firewall Manager y cualquier otro recurso de AWS que pueda utilizar una lista de prefijos administrada. Por ejemplo, puede utilizar la lista de prefijos administrada para CloudFront en las reglas de entrada de su grupo de seguridad de VPC para permitir que solo las direcciones IP de CloudFront accedan a sus instancias de EC2. Al utilizar la lista de prefijos administrada con las reglas de grupo de seguridad comunes para AWS Firewall Manager, puede limitar el acceso a varios Application Load Balancers (ALB) en todas sus cuentas de AWS.  Para más detalles, consulte la Lista de prefijos administrada de AWS.

LA lista de prefijos administrada está disponible para su uso inmediato a través de la consola de AWS y el SDK de AWS en todas las regiones excepto en China, Asia Pacífico (Jakarta) y Asia Pacífico (Osaka). La lista de prefijos puede consultarse en sus plantillas de CloudFormation en las regiones disponibles. No hay una tarifa adicional por utilizar la lista de prefijos administrada de CloudFront. Para obtener más información, consulte la Guía para desarrolladores de CloudFront.

Amazon RDS for MariaDB ya admite MariaDB 10.6. Esta versión presenta varias características de MariaDB que permiten mejorar el rendimiento, la escalabilidad, la confiabilidad y la capacidad de administración de sus cargas de trabajo, incluyendo:

  • Motor de almacenamiento MyRocks: Puede utilizar el motor de almacenamiento MyRocks con RDS para MariaDB y, de este modo, optimizar el consumo de almacenamiento de las aplicaciones web de alto rendimiento que hacen un uso intensivo de escritura.
  • Integración con IAM: Ahora puede configurar AWS Identity and Access Management (IAM) con sus instancias de Amazon RDS for MariaDB para simplificar la administración del acceso a sus recursos de AWS. Gracias a IAM, puede administrar el acceso de los usuarios a todos los recursos de AWS desde una sola ubicación, lo que evita los problemas ocasionados por la desincronización de los permisos en los distintos recursos de AWS.
  • Actualizaciones flexibles: Puede actualizar a RDS for MariaDB 10.6 desde cualquier versión principal de MariaDB anterior (10.2, 10.3, 10.4 o 10.5) en un solo paso. Asimismo, puede tomar una instantánea de una instancia existente de MySQL 5.6 o 5.7 y utilizar la característica de restauración de instantáneas de RDS para convertirla en una instancia de MariaDB 10.6.
  • Replicación diferida: Ahora puede definir un período de tiempo configurable durante el cual una réplica de lectura se retrasa con respecto a la base de datos de origen, como estrategia de recuperación de desastres. En una configuración estándar de replicación para MariaDB, hay un retraso de replicación mínimo entre el origen y la réplica.
  • Compatibilidad con Oracle PL/SQL: Con un conjunto de funciones de compatibilidad PL/SQL más amplio [por ejemplo, ROWNUM(), TO_CHAR(), ADD_MONTHS()], puede migrar sus procedimientos almacenados heredados de Oracle sin necesidad de aportar modificaciones a RDS for MariaDB 10.6.
  • Atomic DDL: Ahora, sus declaraciones DDL serán a prueba de fallos con RDS for MariaDB 10.6. CREATE TABLE, ALTER TABLE, RENAME TABLE, DROP TABLE, DROP DATABASE y las instrucciones DDL relacionadas ahora son de tipo atómico. Hasta ahora, un bloqueo durante una operación DDL podía dar lugar a resultados indeterminados e introducir errores durante la replicación. Gracias al DDL atómico, una operación DDL o bien se termina por completo o no se lleva a cabo en absoluto. Por lo tanto, la recuperación de bloqueos durante las operaciones DDL es determinista, y el registro de la papelera de recuperación sigue siendo consistente en todos los bloqueos del servidor.
  • Otras mejoras: Función JSON_TABLE para transformar datos JSON a un formato relacional dentro de SQL; carga más rápida de datos de tablas vacías con InnoDB; nuevo sys_schema para ejecutar análisis y resolución de problemas; mejora del optimizador que permite ignorar índices no utilizados; y, por último, mejoras de rendimiento.

Si desea obtener más información sobre Amazon RDS for MariaDB y aprender a actualizar las instancias de bases de datos, consulte la Guía del usuario de Amazon RDS. Lance una instancia de base de datos Amazon RDS for MariaDB 10.6 nueva o actualice una instancia existente con unos pocos clics en la consola de administración de AWS

Ya están disponibles las instancias de memoria optimizadas de Amazon EC2 X2iezn. Las instancias X2iezn de Amazon EC2 cuentan con la tecnología de los procesadores de segunda generación Intel Xeon Scalable, con frecuencia turbo para todos los núcleos de hasta 4,5 GHz. Además, estas instancias ofrecen el más alto rendimiento de CPU turbo en todos los núcleos, a partir de procesadores Intel Xeon escalables en la nube, y brindan un rendimiento de precio de computación hasta un 55 % superior en comparación con las instancias X1e. Son perfectas para cargas de trabajo de automatización de diseño electrónico (Electronic Design Automation [EDA]); además, las bases de datos relaciones también se benefician de un alto rendimiento de procesador de un único subproceso y una enorme capacidad de memoria. La combinación de un rendimiento de computación de un único subproceso y una proporción 32:1 de memoria para vCPU hace que las instancias X2iezn sean las más apropiadas para cargas de trabajo de EDA, entre las que se incluyen verificación física, análisis de tiempo estático, encendido y apagado de sistemas y simulación de nivel de puerta de chip, y cargas de trabajo de bases de datos delimitadas por licencias. 

Las instancias Amazon EC2 X2iezn se basan en el sistema Nitro de AWS, que es una amplia colección de bloques funcionales que descargan muchas de las funciones de virtualización tradicionales del hardware dedicado para ofrecer instancias en la nube con alto rendimiento, alta disponibilidad y alta seguridad. 

Las instancias X2iezn están disponibles en 6 tamaños que van de 8 a 48 vCPU, de 256 a 1536 GiB de memoria. Las instancias X2iezn también ofrecen una capacidad de red de hasta 100 Gbps, con compatibilidad con Elastic Fabric Adapter (EFA) y hasta 19 Gbps de capacidad de procesamiento para Amazon Elastic Block Store (EBS). Las instancias X2iezn también están disponibles como instancias bare metal, que permiten a los clientes de EC2 ejecutar aplicaciones que aprovechan la herramientas de análisis profundo del rendimiento, cargas de trabajo especializadas que requieren el acceso directo a infraestructuras bare metal, cargas de trabajo heredadas no compatibles con entornos virtuales y aplicaciones empresariales críticas con restricciones de licencia. Estas instancias le brindan a sus aplicaciones acceso directo a los recursos de procesador y memoria del servidor subyacente, y puede seguir beneficiándose de todos los completos servicios y características de la nube de AWS, como Amazon Elastic Block Store (EBS), Elastic Load Balancer (ELB) y Amazon Virtual Private Cloud (VPC). 

Las instancias X2iezn están disponibles a partir de ahora en las regiones de AWS Oeste de EE. UU. (Oregón), Este de EE. UU. (Norte de Virginia), Europa (Irlanda) y Asia-Pacífico (Tokio). Las instancias X2iezn estarán disponibles para su compra con Savings Plans o instancias reservadas, reservadas convertibles, bajo demanda y de spot, o como instancias dedicadas o hosts dedicados.

Para comenzar a usar las instancias X2iezn, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. Para obtener más información, consulte la página de las instancias X2iezn de EC2 o el foro de AWS sobre EC2, o bien comuníquese con sus contactos habituales de AWS Support. 

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS enero

Hoy AWS ha anunciado la posibilidad de lanzar instancias de Microsoft Windows Server hasta un 65 % más rápido en Amazon Elastic Compute Cloud (EC2). Los clientes pueden marcar cualquier Amazon Machine Image (AMI) que ejecute Microsoft Windows Server para un lanzamiento más rápido. Una vez marcada, cada instancia lanzada desde la AMI se lanzará automáticamente más rápido.

Los tiempos de lanzamiento del sistema operativo Microsoft Windows Server pueden ser una fuente de costosos retrasos durante el aprovisionamiento de recursos para cargas de trabajo esencial y procesos de recuperación. Al lanzar las instancias de Microsoft Windows con mayor rapidez, la nueva funcionalidad ayuda al aprovisionamiento oportuno de instancias a escala. Ya sea que ejecute cargas de trabajo difíciles, que necesite una recuperación más rápida del sistema o que desee agregar una capacidad adicional o de conmutación por error, ahora puede hacer que las instancias de Microsoft Windows para todos estos casos de uso se inicien con mayor rapidez. Los equipos de TI que gestionan entornos en la nube pueden ofrecer un mejor servicio y satisfacer las necesidades dinámicas de la empresa con menores costos operativos.

Los clientes pueden marcar una AMI de Microsoft Windows para un lanzamiento más rápido, ya sea en la sección de administración de AMI de la consola de Amazon EC2 o mediante comandos API/CLI. No se aplica ningún cargo por marcar las AMI para un lanzamiento más rápido. Los clientes solo pagan por los recursos subyacentes de AWS utilizados para preparar las instancias para un lanzamiento más rápido desde las AMI.

Obtenga más información en la sección de la documentación de Amazon EC2 Windows sobre la configuración de las AMI de Microsoft Windows para un lanzamiento más rápido. Para obtener más información sobre cómo sacar el máximo partido a las instancias de Amazon EC2 que ejecutan el sistema operativo Microsoft Windows Server, consulte la página Windows en AWS y la guía sobre las AMI de Windows en AWS.

Amazon Web Services (AWS) anuncia la disponibilidad general de las instancias Hpc6a de Amazon EC2. Estas instancias están optimizadas para ejecutar de forma eficiente cargas de trabajo de computación intensivo y de alto rendimiento, como la dinámica de fluidos computacional, el modelado de yacimientos, las simulaciones meteorológicas y el análisis de elementos finitos. Las instancias Hpc6a ofrecen hasta un 65 % mejor rendimiento en precio que las instancias comparables basadas en x86 de Amazon EC2, optimizadas para computación. Con las instancias Hpc6a, puede reducir considerablemente el costo de las cargas de trabajo de HPC, al tiempo que aprovecha la elasticidad y la escalabilidad de AWS.

Las instancias Hpc6a cuentan con 96 núcleos de procesadores AMD EPYC de tercera generación con una frecuencia turbo en todos los núcleos de 3,6 GHz y 384 GB de RAM. Estas instancias están diseñadas a partir del sistema Nitro de AWS, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios en la nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Las instancias Hpc6a ofrecen redes Elastic Fabric Adapter de 100 Gbps habilitadas de forma predeterminada para las comunicaciones de alto rendimiento entre nodos para ayudarle a ejecutar sus cargas de trabajo HPC a escala.

Las instancias Hpc6a están disponibles en el Este de EE. UU. (Ohio) y en AWS GovCloud (Oeste de EE. UU.). Para optimizar las redes de instancias HPC para cargas de trabajo estrechamente acopladas, podrá acceder a las instancias Hpc6a en una única zona de disponibilidad.

Para obtener más información sobre la instancia Hpc6a, visite la página de detalles del producto.

AWS Firewall Manager ahora le permite implementar de forma centralizada las protecciones automáticas de ataques DDoS en la capa de aplicación (L7) de AWS Shield Advanced en todas las cuentas de su organización. Las protecciones automáticas de ataques DDoS L7 de AWS Shield Advanced bloquean los eventos DDoS de la capa de aplicación sin necesidad de intervención manual. Con este lanzamiento, los administradores de seguridad para AWS Firewall Manager ahora pueden habilitar las protecciones automáticas de ataques DDoS L7 a través de las cuentas que utilizan la política de seguridad de Firewall Manager para AWS Shield Advanced.

Para comenzar, habilite la mitigación automática de ataques DDoS L7 en una política de Firewall Manager Shield Advanced. A continuación, se añadirá un grupo de reglas WAF gestionado por Shield a una lista de control de acceso web (ACL web) del WAF para los recursos protegidos. Shield Advanced evalúa cada regla WAF que crea con respecto al tráfico normal que entra a los recursos para minimizar los falsos positivos y realiza la implementación en modo de recuento, de permiso o de bloqueo.

AWS Firewall Manager es un servicio de administración de la seguridad que actúa como una ubicación central para configurar e implementar las reglas del firewall en todas las cuentas y recursos de su organización. Con Firewall Manager, puede implementar y monitorear reglas para AWS WAF, AWS Shield Advanced, grupos de seguridad VPC, AWS Network Firewall y Amazon Route 53 Resolver DNS Firewall en toda su organización. Firewall Manager garantiza que todas las reglas de firewall se apliquen de manera sistemática, incluso cuando se creen cuentas o recursos nuevos. 

Para comenzar, consulte la documentación de AWS Firewall Manager para obtener más información y la tabla de regiones de AWS para conocer las regiones donde AWS Firewall Manager se encuentra disponible actualmente. Para obtener más información sobre AWS Firewall Manager, sus características y precios, visite el sitio web de AWS Firewall Manager.

A partir de hoy, Amazon Elastic Container Registry (ECR) cuenta con la capacidad de supervisar estadísticas de extracción de repositorio mediante Amazon CloudWatch. Las nuevas estadísticas de extracción le ayudan a supervisar patrones de uso o a identificar comportamientos anómalos mediante la observación de solicitudes de extracción de imágenes por repositorio.

Amazon CloudWatch le brindará a partir de ahora estadísticas sobre el número de imágenes extraídas desde su repositorio de ECR privado de manera predeterminada. Gracias a la información adicional, los clientes pueden identificar los repositorios a los que se accede con más frecuencia, comprender la adopción de nuevos repositorios o disponer de mayor información sobre el uso de repositorios. Los clientes con cuotas de servicio pueden utilizar estos datos para entender qué repositorios cuentan con el mayor número de extracciones de imágenes o para detectar un comportamiento anómalo que está dando lugar a solicitudes de extracción innecesarias.

Para obtener más información acerca de las estadísticas de extracción de repositorios de Amazon ECR, consulte nuestro documento técnico.

Amazon Relational Database Service (RDS) Proxy ahora se encuentra disponible en las regiones de AWS de África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Osaka), Europa (Milán), Europa (París), Europa (Estocolmo), Medio Oriente (Baréin) y América del Sur (São Paulo).

RDS Proxy es un proxy de base de datos completamente administrado y de alta disponibilidad para bases de datos RDS y Amazon Aurora. RDS Proxy ayuda a mejorar la escalabilidad, resistencia y seguridad de las aplicaciones.

Varias aplicaciones, incluso las que se han creado en arquitecturas modernas sin servidor, pueden necesitar un gran número de conexiones abiertas a la base de datos o bien abrir y cerrar con frecuencia conexiones a la base de datos, lo que agota la memoria de la base de datos y los recursos informáticos. RDS Proxy permite que las aplicaciones agrupen y compartan conexiones de bases de datos, lo cual mejora la eficiencia de la base de datos y la escalabilidad de las aplicaciones. En el caso de una conmutación por error, RDS Proxy puede mantener las conexiones de la aplicación y seguir aceptándolas, además de reducir los tiempos de conmutación por error hasta en un 66 %, lo que mejora la disponibilidad de las bases de datos RDS y Aurora. Por último, gracias a RDS Proxy, las aplicaciones pueden aplicar la autenticación IAM, lo que elimina la necesidad de almacenar las credenciales de la base de datos en la aplicación.

Para obtener una lista completa de las regiones en las que RDS Proxy se encuentra disponible, consulte la página de precios.

AWS Lambda ya es compatible con los puntos de conexión IPv6 para las conexiones entrantes, lo que permite a los clientes invocar funciones de Lambda a través de IPv6. Esto ayuda a los clientes a cumplir los requisitos de cumplimiento de IPv6 y elimina la necesidad de contar con equipos de red de coste elevado para administrar la traducción de direcciones entre IPv4 e IPv6.

Para utilizar esta nueva capacidad, configure sus aplicaciones para utilizar los nuevos puntos de conexión de pila doble de AWS Lambda, que son compatibles con IPv4 e IPv6. Los nuevos puntos de conexión de pila doble de AWS Lambda tienen el formato lambda.region.api.aws. Por ejemplo, el punto de conexión de pila doble en el Este de EE. UU. (Norte de Virginia) es lambda.us-east-1.api.aws. Al realizar una solicitud a un punto de conexión de pila doble de Lambda, el punto de conexión resuelve una dirección IPv6 o IPv4, dependiendo del protocolo utilizado por la red y el cliente.

Para conectarse por medio de programación a un servicio de AWS, puede especificar un punto de conexión en la AWS CLI o en el SDK de AWS. Para obtener más información sobre los puntos de conexión de servicios, consulte Puntos de conexión de servicios de AWS. Para obtener más información sobre los puntos de conexión de servicios de Lambda, consulte Puntos de conexión de servicios de AWS Lambda en la documentación de AWS.

Puede utilizar los nuevos puntos de conexión de pila doble de AWS Lambda para las conexiones entrantes sin costo adicional. Los nuevos puntos de conexión de pila doble se encuentra disponible de forma general en Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (París), Europa (Estocolmo), Europa (Milán), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Asia-Pacífico (Sídney), Asia-Pacífico (Seúl), Asia-Pacífico (Osaka), Asia-Pacífico (Bombay), Asia-Pacífico (Hong Kong), Canadá (central), Medio Oriente (Baréin), América del Sur (São Paulo) y África (Ciudad del Cabo). Para obtener más información sobre la disponibilidad, consulte la tabla de regiones de AWS.

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Amazon Translate es un servicio de traducción automática neuronal que ofrece traducción de idiomas rentable, personalizable, de alta calidad y rápida. A partir de hoy, cuenta con la capacidad de enmascarar expresiones obscenas entendidas comúnmente y evitar que aparezcan en sus traducciones. De manera predeterminada, Amazon Translate elige palabras que no sean malsonantes para el resultado de la traducción. En aquellos casos en los que aparezcan expresiones obscenas en el resultado traducido, ahora puede elegir enmascarar las expresiones y frases obscenas con la cadena grawlix “?$#@$”. Esta secuencia de 5 caracteres se utiliza para cada expresión o frase obscena, sin importar la longitud o el número de caracteres que incluya. 

El enmascaramiento de expresiones obscenas se puede aplicar tanto en tiempo real como de manera asíncrona a trabajos de traducción por lotes en todas las regiones comerciales de AWS donde Amazon Translate está disponible. Para obtener más información, consulte la documentación de Amazon Translate acerca del enmascaramiento de expresiones obscenas.

Read more...

Novedades: Amazon AWS diciembre

AWS Network Firewall ya es compatible con las reglas administradas de AWS, que son grupos de reglas basados en datos de inteligencia de amenazas, que le permiten estar al día de las últimas amenazas de seguridad sin tener que escribir y mantener sus propias reglas.

AWS Network Firewall cuenta con un motor de reglas flexible con el que podrá definir reglas de firewall que le proporcionen un control detallado del tráfico de red. A partir de hoy, puede habilitar las reglas de la lista de dominios gestionados para bloquear el tráfico HTTP/HTTPS a los dominios identificados como de baja reputación o que se sabe o se sospecha que están asociados a malware o botnets. Puede seleccionar uno o varios grupos de reglas para utilizarlos en las políticas de AWS Network Firewall. Para las reglas con estado, puede elegir bloquear todas las solicitudes que coincidan con las reglas de la lista de dominios administrados o utilizar la acción de alerta para ver qué solicitudes coinciden con las reglas. Cada conjunto de grupos de reglas administradas cuenta como un solo grupo de reglas para el número máximo de grupos de reglas con estado por política de firewall.

El uso de las reglas administradas de AWS para las listas de dominios no conlleva ningún cargo adicional. Puede acceder a las nuevas reglas administradas para AWS Network Firewall utilizando la consola de Amazon VPC o la API de Network Firewall. Esta característica está disponible en todas las regiones comerciales de AWS excepto en las regiones de AWS GovCloud (EE. UU.). AWS Network Firewall es un servicio de firewall administrado que facilita la implementación de protecciones de red esenciales para todas las Amazon VPC. El servicio se escala automáticamente con el volumen de tráfico de la red para proporcionar protecciones de alta disponibilidad sin necesidad de configurar o mantener la infraestructura subyacente. AWS Network Firewall está integrado con AWS Firewall Manager para poder ver y controlar desde un único lugar las políticas de firewall en varias cuentas de AWS. Para comenzar a utilizar AWS Network Firewall, consulte la página del producto de AWS Network Firewall y la documentación del servicio.

Ya está disponible el controlador de la interfaz de almacenamiento de contenedores (CSI) de Amazon Elastic Block Store (EBS) como versión preliminar en los complementos de Amazon Elastic Kubernetes Service (Amazon EKS); gracias a dicho controlador, podrá usar la consola, la CLI y la API de Amazon EKS para instalar y administrar el complemento. Este lanzamiento se agrega a la compatibilidad existente con el complemento de red CNI de Amazon VPC, CoreDNS y kube-proxy, y facilita la tarea de definir clústeres de Kubernetes consistentes y mantenerlos actualizados mediante Amazon EKS.

El controlador CSI para EBS proporciona una interfaz CSI que utilizan los orquestadores de contenedores para administrar el ciclo de vida de los volúmenes de Amazon EBS. La versión preliminar en los complementos de EKS le permitirá disfrutar de una experiencia de uso sencilla para adjuntar almacenamiento persistente a un clúster de EKS. El controlador CSI para EBS ya se puede instalar, administrar y actualizar directamente desde la consola, la CLI y la API de EKS. Puede observar versiones compatibles y complementos disponibles en la API de EKS, seleccionar la versión del complemento que desea ejecutar en el clúster y configurar algunos ajustes esenciales, como el rol de IAM utilizado por el complemento al ejecutarse. Mediante los complementos de EKS, puede pasar de la creación del clúster a la ejecución de aplicaciones en un solo comando, así como mantener el conjunto de herramientas actualizado en el clúster de una forma sencilla.

Amazon EKS permite administrar la instalación y la versión del controlador CSI para EBS (versión preliminar), de CoreDNS, del kube-proxy y del complemento de red CNI de Amazon VPC en clústeres que se ejecutan en la versión 1.18 o superiores de Kubernetes. Para obtener más información y comenzar a usarlo, visite la página de documentación de Amazon EKS.

Application Manager, una capacidad de AWS Systems Manager, anuncia una nueva característica para que los clientes informen y visualicen el costo de sus aplicaciones mediante la integración con AWS Cost Explorer. Application Manager es un núcleo central en AWS para crear, ver y operar aplicaciones desde una solo consola. Con Application Manager, los clientes pueden detectar y administrar aplicaciones en varios servicios de AWS, como AWS CloudFormation, AWS Launch Wizard, AWS Service Catalog App Registry, AWS Resource Groups, Amazon Elastic Kubernetes Service (Amazon EKS) y Amazon Elastic Container Service (Amazon ECS). Con esta característica, los profesionales de TI ahora pueden ver el costo de sus aplicaciones y los componentes de las aplicaciones dentro de la consola de Application Manager.

AWS Cost Explorer permite a los clientes visualizar, comprender y administrar los costos y el uso de sus aplicaciones a lo largo del tiempo. Con esta característica, los clientes que tienen Cost Explorer habilitado ahora pueden ver la información general de los costos asociados con la aplicación y los componentes de la aplicación dentro de la consola de Application Manager. Los clientes también pueden hacer clic en varias partes de la consola de Cost Explorer para analizar aún más los datos de costos de su aplicación. Los clientes que son nuevos en los informes de costos pueden hacer clic en el botón “Go to Billing console” (Ir a la consola de facturación) y configurar Cost Explorer para habilitar los informes de costos en su cuenta.

Esta nueva característica está disponible en todas las regiones de AWS en las que se ofrece Systems Manager, salvo en las regiones de AWS GovCloud (EE. UU.). Si desea obtener información acerca de Application Manager, consulte la documentación. Para obtener más información sobre AWS Systems Manager, visite la página del producto.

Ahora puede enviar los registros de AWS WAF directamente a un grupo de registros de CloudWatch Logs o a un bucket de Amazon S3. Gracias a este lanzamiento, se agregan dos nuevos destinos opcionales para los registros de WAF, además de Amazon Kinesis Data Firehose, que ya era compatible. Si utiliza CloudWatch Logs como destino de los registros del WAF, puede buscar y analizar los registros de WAF directamente en la consola de WAF mediante CloudWatch Logs Insights. Con CloudWatch Logs Insights, puede ver registros individuales, compilar informes agregados, crear visualizaciones y crear paneles de mando.

Para enviar registros de WAF directamente a un grupo de registros de CloudWatch Logs o a un bucket de S3, inicie sesión en la consola de AWS WAF, seleccione una lista de control de acceso web (ACL web) y acceda a la sección de registros y métricas para agregar o cambiar el destino de los registros. Para buscar y analizar registros de WAF debe seleccionar CloudWatch Logs como destino del registro. Una vez habilitado, navegue a la consola de AWS WAF y seleccione la pestaña CloudWatch Logs Insights.

No hay ningún costo adicional en AWS WAF por habilitar el registro en estos nuevos destinos, pero se seguirán aplicando los cargos de servicio estándar para AWS WAF, CloudWatch Logs y S3. El registros está disponible en todas las regiones de AWS WAF y para cada servicio compatible, incluidos Amazon CloudFront, Application Load Balancer, Amazon API Gateway y AWS AppSync. Para obtener más información, consulte la Guía para desarrolladores de AWS WAF

Fleet Manager, una característica de AWS Systems Manager (SSM) que ayuda a los administradores de TI a optimizar y escalar sus tareas de administración de servidores remotos, ahora ofrece una experiencia sencilla basada en la consola para que los clientes vean y administren los procesos en sus instancias. Esta nueva característica proporciona a los clientes una visión consolidada de los procesos que se ejecutan en una instancia, junto con la capacidad de evaluar el consumo de recursos en tiempo real y optimizar las operaciones a través de acciones de inicio/parada.

La nueva característica Fleet Manager muestra una lista de todos los procesos que se están ejecutando en el servidor. Los clientes pueden ver detalles pormenorizados tales como el nombre del proceso, los detalles del proceso y las métricas de utilización para cada proceso activo. Pueden consultar los procesos por nombre e incluso ordenar fácilmente las columnas en función de cualquiera de los parámetros del proceso. Además de este informe detallado, la capacidad de administración de procesos en Fleet Manager muestra los recuentos agregados de CPU, memoria, manejadores y subprocesos que se consumen en tiempo real. Los clientes pueden incluso terminar procesos no deseados directamente desde la consola de Fleet Manager o iniciar un nuevo proceso proporcionando el nombre del proceso o la ruta completa del ejecutable que quieren ejecutar. Además, los clientes tienen la opción de iniciar un nuevo proceso en el directorio actual o especificar una ruta diferente en la consola.

Fleet Manager es una experiencia basada en la consola de Systems Manager que proporciona herramientas visuales para administrar los servidores de Windows, Linux y macOS. Con esta herramienta se pueden realizar fácilmente tareas administrativas comunes, como la exploración de sistemas de archivos, la administración de registros, los contadores de rendimiento y la administración de usuarios desde una única consola. Fleet Manager administra las instancias que se ejecutan en AWS y en las instalaciones, sin necesidad de establecer una conexión remota con los servidores. Fleet Manager está disponible en todas las regiones de AWS en las que se ofrece Systems Manager (salvo en las regiones de AWS China). Para obtener más información sobre Fleet Manager, visite nuestra página web, lea nuestra publicación en el blog o consulte nuestra documentación y las preguntas frecuentes sobre AWS Systems Manager. Para comenzar, elija Fleet Manager en el panel de navegación izquierdo de Systems Manager.

A partir de ahora, las instancias M1 Mac de Amazon Elastic Compute Cloud (EC2) para macOS están disponibles en versión preliminar. Creadas en miniordenadores Mac fabricados con silicio de Apple y con tecnología de AWS Nitro System, las instancias M1 Mac de EC2 ofrecen un rendimiento de precios hasta un 60 % mejor en comparación con las instancias Mac de EC2 basadas en x86 para las cargas de trabajo de creación de aplicaciones de iOS y macOS. Las instancias M1 Mac de EC2 también habilitan los entornos nativos ARM64 de macOS por primera vez en AWS para desarrollar, crear, probar, implementar y ejecutar aplicaciones de Apple. Los desarrolladores que rediseñan sus aplicaciones de macOS para que admitan de forma nativa las computadoras Mac fabricadas con silicio de Apple ahora pueden aprovisionar entornos ARM64 de macOS en minutos, escalar la capacidad dinámicamente según sea necesario y beneficiarse del sistema de precios de pago por uso de AWS para disfrutar creaciones más rápidas y pruebas distribuidas convenientes. Obtenga más información y comience a utilizar la versión preliminar de las instancias M1 Mac de EC2 aquí.

En la actualidad, millones de desarrolladores de Apple alrededor del mundo buscan apoyar la transición única de Apple a una nueva familia de silicio personalizado y diseñado específicamente para los ordenadores Mac, comenzando con el sistema M1 en chip (SoC). M1 es el primer SoC de ordenador personal creado con tecnología de procesos de 5 nanómetros de última generación que combina numerosas tecnologías poderosas en un único chip y cuenta con una arquitectura de memoria unificada para brindar mejor rendimiento y mayor eficiencia. El M1 SoC diseñado por Apple también permite que la arquitectura ARM64 se ejecute por primera vez en el sistema macOS de Apple. Ahora, con las instancias M1 Mac de EC2, los desarrolladores de Apple pueden disfrutar de un rendimiento de precios hasta un 60 % mejor en comparación con las instancias Mac de EC2 basadas en x86 para las cargas de trabajo de creación de aplicaciones de iOS y macOS. Además, podrán disfrutar de la misma elasticidad, escalabilidad y fiabilidad que la infraestructura segura y bajo demanda de AWS ha ofrecido a millones de clientes por más de una década. Los clientes que rediseñan sus aplicaciones de macOS para que admitan de forma nativa la arquitectura ARM64 en Apple SoC ahora pueden disfrutar de creaciones más rápidas con rendimiento bare metal y pruebas distribuidas convenientes, sin tener que comprar, instalar, administrar ni actualizar la infraestructura física de creación, ni tampoco aplicarle parches. Los clientes también pueden consolidar el desarrollo de aplicaciones entre plataformas para Apple, Windows y Android en AWS, lo que les permitirá aumentar la productividad de los desarrolladores y acelerar el tiempo de comercialización. Así como con otras instancias EC2, los clientes pueden utilizar fácilmente las instancias M1 Mac de EC2 junto con los servicios y las características de AWS, como Amazon Virtual Private Cloud (VPC) para la seguridad de las redes; Amazon Elastic Block Store (EBS) para el almacenamiento expandible; Amazon Elastic Load Balancer (ELB) para la distribución de colas de creación e Amazon Machine Image (AMI) para la orquestación de imágenes del sistema operativo. La disponibilidad de las instancias M1 Mac de EC2 también quita las cargas pesadas que provienen de administrar la infraestructura en AWS, lo que significa que los desarrolladores de Apple se pueden enfocar en rediseñar sus aplicaciones de macOS para que admitan de forma nativa ordenadores Mac con silicio de Apple.

Las instancias M1 Mac de EC2 cuentan con la tecnología de una combinación de miniordenadores Mac fabricados con silicio de Apple (que incorporan el chip M1 con 8 núcleos de CPU, 8 núcleos de GPU, 16 GiB de memoria, motor neuronal Apple de 16 núcleos) y el sistema AWS Nitro System, que proporciona hasta 10 Gbps de ancho de banda de red de VPC y 8 Gbps de ancho de banda de almacenamiento de EBS a través de conexiones Thunderbolt de alta velocidad. Las instancias M1 Mac de EC2 están habilitadas de manera exclusiva por AWS Nitro System, que permite ofrecer miniordenadores Mac como instancias informáticas completamente integradas y administradas con redes de Amazon VPC y almacenamiento de EBS, como cualquier otra instancia EC2. Las instancias M1 Mac de EC2 también admiten macOS Big Sur 11 y macOS Monterey 12 como Amazon Machine Image (AMI).

La versión preliminar de las instancias M1 Mac de EC2 comienza hoy en las regiones de AWS Oeste de EE. UU. (Oregón) y Este de EE. UU. (Norte de Virginia), con lanzamientos próximos de regiones adicionales. Obtenga más información acerca de las instancias M1 Mac de EC2 aquí o solicite acceso a la versión preliminar aquí.

AWS Well-Architected Framework contribuye con los clientes de AWS para mejorar sus cargas de trabajo en la nube desde 2015. El marco consta de principios de diseño, preguntas y prácticas recomendadas en múltiples pilares: excelencia operativa, seguridad, fiabilidad, eficacia de rendimiento y optimización de costos. Hoy, presentamos el nuevo pilar de sostenibilidad de AWS Well-Architected para ayudar a las organizaciones a comprender, medir y mejorar las cargas de trabajo por medio de las prácticas recomendadas ambientales para la informática en la nube.

Con un creciente número de organizaciones que establecen objetivos de sostenibilidad, los directores de tecnología (CTO), los arquitectos, los desarrolladores y los miembros de los equipos de operaciones están buscando la manera de contribuir directamente con los objetivos de sostenibilidad de sus organizaciones. Por medio del nuevo pilar de sostenibilidad de AWS Well-Architected, puede tomar decisiones fundamentadas para equilibrar la seguridad, los costos de rendimiento, la fiabilidad y la excelencia operacional con resultados de sostenibilidad para sus cargas de trabajo en la nube. Cada acción que se lleve a cabo para reducir el uso de recursos e incrementar la eficiencia de todos los componentes de una carga de trabajo contribuye a reducir el impacto ambiental para esa carga de trabajo.Además, contribuye con los objetivos más amplios de sostenibilidad de su organización.

AWS Amplify presenta AWS Amplify Studio, un entorno de desarrollo visual que ofrece a los desarrolladores de frontend nuevas características (en versión preliminar pública) para acelerar el desarrollo de la interfaz de usuario con una cantidad mínima de código, a la vez que integra las poderosas capacidades de configuración y administración de backend de Amplify. Amplify Studio traduce de forma automática los diseños efectuados en Figma a código de componentes React de la interfaz de usuario legibles por humanos. Dentro de Amplify Studio, los desarrolladores pueden conectar visualmente los componentes de interfaz de usuario con los datos de backend de las aplicaciones. Para configurar y administrar backends, las capacidades existentes de la interfaz de usuario de administrador de Amplify en adelante formarán parte de Amplify Studio, lo que proporcionará una interfaz unificada que permita a los desarrolladores crear aplicaciones de pila completa más rápido. Más información

Los desarrolladores ahora pueden utilizar Amplify Studio para configurar un backend, crear componentes de la interfaz de usuario y conectarlos, todo dentro de Amplify Studio. Amplify Studio cuenta con todas las capacidades de creación y administración de backend existentes de la interfaz de usuario de administrador, lo que simplifica la configuración y la administración de la infraestructura de backend de aplicaciones, como las tablas de bases de datos, la autenticación de usuarios y el almacenamiento de archivos, sin la necesidad de tener experiencia en la nube. Para acelerar el desarrollo de la interfaz de usuario, Amplify Studio ofrece a los desarrolladores una biblioteca React de interfaz de usuario con docenas de componentes, como los ingresos de noticias, los formularios de contacto y las tarjetas de comercio electrónico. Todos los componentes de la interfaz de usuario son completamente personalizables dentro de Figma, lo que brinda a los diseñadores el control completo del diseño visual de los componentes dentro de las herramientas con las que están familiarizados. Los desarrolladores pueden importar personalizaciones de componentes desde Figma hacia Amplify Studio y pueden utilizar el editor de componentes para conectar de forma visual los componentes de la interfaz de usuario con los datos del backend de aplicaciones. Amplify Studio exporta todos los artefactos de frontend y backend (componentes de la interfaz de usuario, infraestructura de backend) a código confiable, lo que brinda a los desarrolladores la facultad de personalizar completamente el diseño y el comportamiento de la aplicación mediante el uso de conceptos de programación conocidos, como JavaScript para el código de las aplicaciones, Amplify CLI y AWS CDK para ampliar la infraestructura de backend.

En este momento, las capacidades de desarrollo de la interfaz de usuario de AWS Amplify Studio están en versión preliminar pública. Todas las capacidades de configuración y administración de backend están disponibles de forma general en 17 regiones de AWS: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Oeste de EE. UU. (Norte de California), Asia-Pacífico (Mumbai), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (Central), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (París), Europa (Estocolmo), América del Sur (São Paulo) y Medio Oriente (Baréin).

Amazon VPC Network Access Analyzer es una nueva característica que permite identificar el acceso de red no deseado a los recursos en AWS. Al utilizar Network Access Analyzer, puede verificar si el acceso de red correspondiente a los recursos de la Virtual Private Cloud (VPC) cumple las directrices de seguridad y conformidad. Con Network Access Analyzer, es posible evaluar e identificar mejoras en la posición de seguridad de la nube. Además, Network Access Analyzer permite demostrar más fácilmente que la red cumple ciertos requisitos normativos.

Como parte del modelo de responsabilidad compartida de AWS, los clientes con frecuencia necesitan verificar que sus redes en AWS están creadas con los controles apropiados para bloquear cualquier acceso a la red no deseado. Algunos ejemplos son: “Nunca se debe poder acceder a las bases de datos a través de Internet”, “Los servidores de aplicaciones solo pueden enviar tráfico TCP en el puerto 443 a un rango de IP de confianza en las instalaciones” y “No se debe poder acceder a las VPC de producción desde las VPC de desarrollo”. Network Access Analyzer permite recoger estos requisitos en especificaciones sencillas y precisas. Mediante el razonamiento automatizado, Network Access Analyzer identifica las rutas de red en el entorno de AWS que no cumplen los requisitos definidos. Puede especificar los orígenes y destinos correspondientes a los requisitos de acceso a la red en términos de rangos de direcciones IP, rangos de puertos, protocolos de tráfico, identificadores de recursos de AWS, AWS Resource Groups y tipos de recursos, como gateways de Internet o Gateways de NAT. De esta manera, puede gobernar fácilmente el acceso a la red en todo el entorno de AWS, independientemente de la configuración de la red.

Para comenzar, visite la consola de administración de AWS y evalúe la red mediante uno de los ámbitos de acceso a la red creados por Amazon en Network Access Analyzer. También puede definir sus propios ámbitos de acceso a la red y analizar la red mediante AWS CLI, AWS SDK o la consola de administración de AWS.

Amazon VPC Network Analyzer está disponible de forma general en las siguientes regiones de AWS: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Norte de California), Oeste de EE. UU.(Oregón), África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Mumbai), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (Central), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), América del Sur (São Paulo) y Medio Oriente (Baréin).

Amazon VPC IP Address Manager (IPAM) es una nueva característica que facilita la planificación, el seguimiento y el monitoreo de las direcciones IP para las cargas de trabajo de AWS. Gracias a los flujos de trabajo automatizados de IPAM, los administradores de red pueden administrar de forma más eficiente las direcciones IP.

VPC IPAM permite organizar fácilmente las direcciones IP en función de las necesidades de enrutamiento y seguridad, así como establecer reglas empresariales sencillas para regir las asignaciones de IP. Al utilizar IPAM, es posible automatizar la asignación de direcciones IP a las VPC, con lo que se elimina la necesidad de utilizar aplicaciones de planificación de IP basadas en hojas de cálculo o de creación propia, que pueden ser difíciles de mantener y requerir mucho tiempo. Esta automatización contribuye a evitar los retrasos en la incorporación de nuevas aplicaciones o en el crecimiento de las existentes, ya que permite asignar direcciones IP a las VPC en cuestión de segundos. IPAM también realiza un seguimiento automático de la información crítica de la dirección IP, incluida su cuenta de AWS, Amazon VPC y el dominio de enrutamiento y seguridad, lo que elimina la necesidad de realizar un seguimiento manual o de llevar un registro de las direcciones IP. Esto reduce la posibilidad de que se cometan errores durante las asignaciones de IP. También puede establecer alarmas para la utilización de las direcciones IP y obtener visibilidad para solucionar proactivamente cualquier problema relacionado con las direcciones IP. IPAM retiene automáticamente los datos de monitoreo de las direcciones IP (hasta un máximo de tres años). Puede utilizar estos datos históricos para realizar análisis y auditorías retrospectivos de las políticas de seguridad y enrutamiento de la red.

IPAM ofrece una visión operativa unificada y permite administrar las direcciones IP en todas las regiones y cuentas de AWS, a través de AWS Resource Access Manager y AWS Organizations. Dado que la vista unificada de operaciones se puede utilizar como única fuente veraz para la información relacionada con cualquier dirección IP, IPAM permite realizar de forma más eficiente las actividades rutinarias de administración de direcciones IP, como el seguimiento de la utilización de IP, la resolución de problemas y la auditoría, de forma mucho más rápida.

Amazon VPC IPAM está disponible de forma general en las siguientes regiones de AWS: África (Ciudad del Cabo), Asia-Pacífico (Hong-Kong), Asia-Pacífico (Mumbai), Asia-Pacífico (Osaka), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Canadá (Central), Europa (Dublín), Europa (Fráncfort), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Medio Oriente (Baréin), América del Sur (São Paulo), Oeste de EE. UU. (Norte de California), Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio) y Oeste de EE. UU. (Oregón). 

Amazon Relational Database Service (Amazon RDS) Custom es un servicio de base de datos administrada para aplicaciones heredadas, personalizadas y empaquetadas que requieren acceso al sistema operativo subyacente y al entorno de la base de datos. Amazon RDS Custom ahora está disponible para el motor de base de datos de SQL Server. Amazon RDS Custom for SQL Server automatiza la configuración, el funcionamiento y el escalado de bases de datos en la nube al tiempo que otorga acceso a la base de datos y al sistema operativo subyacente para configurar los ajustes, instalar controladores y para habilitar las características nativas para cumplir con los requisitos de la aplicación dependiente.

Con Amazon RDS Custom for SQL Server, los clientes pueden personalizar el sistema operativo y el host del servidor de base de datos y cambiar la configuración del software de la base de datos para admitir aplicaciones de terceros que requieren acceso privilegiado. A través de los beneficios de ahorro de tiempo de un servicio administrado, Amazon RDS Custom para SQL Server permite que recursos valiosos se concentren en actividades estratégicas más importantes para la empresa. Al automatizar las copias de seguridad y otras tareas operativas, los clientes pueden estar tranquilos sabiendo que sus datos están seguros y listos para recuperarlos en caso de que sea necesario. Y, por último, la escalabilidad basada en la nube de Amazon RDS Custom ayudará a las infraestructuras de bases de datos de nuestros clientes a mantener el ritmo a medida que su negocio crece.

Comience a utilizarlo hoy mismo a través de AWS CLI o la consola de administración de AWS. Amazon RDS Custom for SQL Server está disponible de forma general en las siguientes regiones: Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Este de EE. UU. (Ohio), Europa (Irlanda), Europa (Fráncfort), Europa (Estocolmo), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio) y Asia-Pacífico (Singapur).

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS noviembre

Amazon AppStream 2.0 agrega soporte para Amazon Linux 2. Gracias a este lanzamiento, ahora puede transmitir aplicaciones y escritorios de Linux a sus usuarios, y reducir notablemente el costo de streaming total al migrar Matlab, Eclipse, Firefox, PuTTY y otras aplicaciones similares desde Windows a Linux en Amazon AppStream 2.0.

Ahora puede transmitir aplicaciones compatibles con Linux a sus usuarios de la misma forma sencilla en la que actualmente transmite aplicaciones de Windows, con un costo por hora inferior, cargos por segundo y sin cuota por usuario. Gracias al streaming de aplicaciones de Linux, puede transformar su entrega de aplicaciones en un modelo de software como servicio (SaaS), brindar a sus desarrolladores entornos de desarrollo de Linux remotos con herramientas populares como Python y Docker, permitir a sus diseñadores el acceso a aplicaciones CAD que requieran escritorios de Linux con GPU de alto rendimiento desde cualquier lugar, y configurar entornos de aprendizaje de Linux basados en la nube para estudiantes.

La compatibilidad de AppStream 2.0. es compatible actualmente en todas las regiones de AWS donde AppStream 2.0 está disponible. Para comenzar, inicie sesión en la consola de AppStream 2.0. y seleccione una región; lance un creador de imágenes basado en Amazon Linux 2 para instalar sus aplicaciones y cree la imagen para su usuarios. Las instancias basadas en Linux para AppStream 2.0 utilizan la facturación por segundo (con un mínimo de 15 minutos). Para obtener más información, consulte los precios de Amazon AppStream 2.0.

La moderación de contenidos de Amazon Rekognition es una característica basada en el aprendizaje profundo que permite detectar imágenes y vídeos inapropiados, no deseados u ofensivos, facilitando la búsqueda y eliminación de estos contenidos a escala. Amazon Rekognition proporciona una clasificación detallada a través de 35 subcategorías y 10 categorías de moderación de nivel superior. Desde hoy, la moderación de contenidos de Amazon Rekognition cuenta con un modelo mejorado para la moderación de imágenes que reduce significativamente las tasas de falsos positivos en todas las categorías de moderación, en particular la de “desnudos explícitos”, sin que se reduzcan las tasas de detección de contenidos verdaderamente inseguros. La reducción en los índices de falsos positivos disminuye el volumen de imágenes marcadas para revisiones adicionales, lo que supone una mejor experiencia para los moderadores humanos y un mayor ahorro de costos.

En la actualidad, muchas empresas emplean equipos de moderadores humanos para revisar los contenidos de terceros o generados por los usuarios, mientras que otras simplemente reaccionan a las quejas de los usuarios para retirar los contenidos ofensivos o inapropiados. Sin embargo, los moderadores humanos por sí solos no pueden satisfacer estas necesidades con la calidad o la rapidez necesarias, lo que podría dar lugar a una mala experiencia del usuario, a elevados costos para alcanzar la escala o incluso a que la reputación de la marca se vea afectada. La moderación de contenidos de Amazon Rekognition le permite agilizar sus flujos de trabajo de moderación utilizando machine learning. Gracias a las API de moderación completamente administradas, puede revisar rápidamente millones de imágenes o miles de vídeos, y marcar únicamente un pequeño subconjunto de activos para aplicar medidas adicionales. Esto le garantiza una cobertura de moderación completa a la vez que rentable para todos sus contenidos a medida que su empresa crece, además de reducir la carga que supone para su personal tener que examinar grandes volúmenes de contenidos susceptibles de moderación.

Las mejoras de precisión para la moderación de contenido de Amazon Rekognition en imágenes ya están disponibles en todas las regiones de AWS compatibles. Para comenzar, puede probar la última versión en la consola de Amazon Rekognition. Para obtener más información sobre la moderación de contenidos de Amazon Rekognition, consulte la documentación de la característica.

Hoy anunciamos la disponibilidad general de las instancias G5 de Amazon EC2, que cuentan con la tecnología de las GPU NVIDIA A10G Tensor Core. Estas instancias se pueden emplear en una amplia variedad de casos de uso con utilización intensiva de gráficos y de machine learning. Ofrecen un rendimiento hasta tres veces mayor para aplicaciones de uso intensivo de gráficos e inferencia de machine learning y un rendimiento hasta 3,3 veces mayor para la formación de modelos de machine learning simples a moderadamente complejos en comparación con las instancias G4dn de Amazon EC2.

Las instancias G5 cuentan con hasta ocho GPU NVIDIA A10G Tensor Core y procesadores AMD EPYC de segunda generación También admiten hasta 192 CPU virtuales, 100 Gbps de ancho de banda de red y 7,6 TB de almacenamiento local SSD NVMe. Con ocho tamaños de instancia G5 que ofrecen acceso a una única GPU o a varias, los clientes cuentan con la flexibilidad de escoger el tamaño de instancia adecuado para sus aplicaciones.

Además, pueden utilizar las instancias G5 para aplicaciones de uso intensivo de gráficos, como las estaciones de trabajo remotas, los renderizados de video y los videojuegos en la nube, que generan gráficos de alta fidelidad en tiempo real. Los clientes de machine learning puede utilizar las instancias G5 para llevar a cabo formaciones de alto rendimiento y rentables e inferencia para casos de uso de procesamiento de lenguaje natural, visión artificial y motor de recomendaciones.

Los clientes pueden optimizar con facilidad las instancias G5 para sus cargas de trabajo mediante el acceso sin costo adicional a los controladores Tesla de NVIDIA para las cargas de trabajo informáticas, los controladores GRID para aprovisionar estaciones de trabajo virtuales RTX, y los controladores de videojuego. 

Las instancias G5 de Amazon EC2 se encuentran disponibles hoy mismo en las regiones de AWS Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda). Los clientes pueden adquirir instancias G5 como instancias en diferido, instancias reservadas, instancias de spot o como parte de los Savings Plans.

Para comenzar, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, visite la página de las instancias G5.

Amazon Elastic Container Service (Amazon ECS) ha mejorado los proveedores de capacidad de Amazon ECS para entregar una experiencia de Auto Scaling de clústeres más rápida. Los clientes que necesiten lanzar un número elevado de tareas (más de 100) en sus clústeres de Amazon ECS ahora podrán consultar su escala de infraestructura de clústeres con mayor rapidez.

Amazon ECS es un servicio de orquestación de contenedores completamente administrado que le permite implementar, administrar y escalar aplicaciones en contenedores de forma más sencilla. Escalado automático de clústeres es una capacidad de Amazon ECS que administra el escalado de grupos de Auto Scaling de Amazon Elastic Compute Cloud (EC2) por usted, de modo que pueda centrarse únicamente en ejecutar sus tareas. Hemos hecho muchas optimizaciones en los proveedores de capacidad, que ahora permiten a Amazon ECS ajustar la capacidad del clúster con mejor capacidad de respuesta, sobre todo en caso en los que el clúster necesita escalar horizontalmente para lanzar un número elevado de tareas (más de 100) o cuando varios servicios de ECS que tienen diferentes requisitos de recursos se escalan horizontalmente de manera simultánea. Estas optimizaciones del rendimiento le brindarán una experiencia de Auto Scaling de clústeres más rápida.

Las optimizaciones ya están habilitadas de manera automática en las regiones de AWS donde ECS está disponible. No se necesitan más acciones por su parte. Para obtener más información, consulte Análisis en profundidad del Auto Scaling de clústeres de Amazon ECS y Guía del usuario para el Auto Scaling de clústeres.

Amazon DocumentDB (compatible con MongoDB) es un servicio de base de datos escalable, de larga duración y completamente administrado para operar cargas de trabajo de MongoDB esenciales. 

Amazon DocumentDB (compatible con MongoDB) ahora es compatible con los tipos de instancia T4g.medium y R6g (instancias Graviton2). La instancias Graviton2 brindan hasta un 30 % de mejora de rendimiento para cargas de trabajo de Amazon DocumentDB en función del tamaño de la base de datos.

Amazon Web Services fabrica de forma personalizada los procesadores Graviton2 de AWS con núcleos Arm Neoverse de 64 bits, que ofrecen diversas optimizaciones de rendimiento superiores a las de los procesadores Graviton de AWS de primera generación. Estas incluyen 7 veces mejor rendimiento, 4 veces la cantidad de núcleos de procesamiento, cachés privadas 2 veces más grandes por núcleo, memoria 5 veces más rápida y rendimiento de punto flotante 2 veces más rápido por núcleo. Asimismo, los procesadores Graviton2 de AWS tienen una memoria DDR4 totalmente cifrada de funcionamiento continuo para acelerar en un 50 % el rendimiento de cifrado por núcleo. Estas mejoras en el rendimiento hacen que las instancias de bases de datos R6g de Graviton2 sean una excelente opción para cargas de trabajo de bases de datos. Las instancias Graviton2 de Amazon DocumentDB están disponibles desde el tamaño mediano hasta 16xlarge. 

Puede lanzar las instancias R6g de Graviton2 y T4g.medium en la consola de administración de Amazon DocumentDB o con la AWS CLI. La actualización de una instancia de Amazon DocumentDB a Graviton2 necesita una modificación del tipo de instancias simple, con los mismos pasos que cualquier otra modificación de instancia. Sus aplicaciones continuarán funcionando normalmente y no tendrá que transferir código de aplicación. Para más información sobre la compatibilidad de la versión de base de datos, consulte nuestra documentación. Para obtener más información sobre cómo empezar, consulte nuestra guía de introducción. Para obtener información completa sobre los precios y la disponibilidad regional, consulte los precios de Amazon DocumentDB.

Amazon Elastic Container Service (Amazon ECS) ya proporciona a los clientes información mejorada sobre el estado de su infraestructura informática. Los clientes que ejecutan cargas de trabajo en contenedores con Amazon ECS en Amazon Elastic Compute Cloud (Amazon EC2) o en las instalaciones con Amazon ECS Anywhere ya pueden consultar el estado del tiempo de ejecución del contenedor (por ejemplo, Docker) en las instancias de contenedor directamente desde la API de Amazon ECS. Esto ayuda a los clientes a mejorar la resiliencia de la aplicación.

Aunque sea con poca frecuencia, pueden surgir problemas con la infraestructura del anfitrión o el tiempo de ejecución de Docker que pueden impedir que se inicien los nuevos contenedores e incluso pueden afectar a los contenedores que ya están en ejecución. Con el lanzamiento de hoy, Amazon ECS monitorea automáticamente el tiempo de ejecución del contenedor para observar su respuesta en nombre del cliente. Los clientes pueden usar la API ECS Describe-Instances con la opción include Health Status (Incluir estado) para ver información del estado de sus tareas de Amazon ECS.

Los clientes pueden ver el estado de todas las instancias de contenedor de Amazon ECS que ejecutan la versión 1.57.0 o posterior del agente de contenedores de Amazon ECS. Esta versión está disponible automáticamente con la versión 20211103 de la AMI optimizada para Amazon ECS. Amazon ECS está disponible en todas las regiones públicas de AWS. Para obtener más información, consulte la documentación aquí.

A partir de hoy, puede configurar EC2 Fleet y la flota de spot para que terminen automáticamente una instancia de spot al usar el reequilibrio de capacidades. Con el reequilibrio de capacidades, EC2 Fleet y la flota de spot intentan reemplazar una instancia de spot cuando tiene un riesgo elevado de interrupción, según lo indique la señal de recomendación de reequilibrio de la instancia EC2. Hasta ahora, EC2 Fleet o la flota de spot lanzaban una instancia de spot de reemplazo sin terminar la instancia de spot que recibía una recomendación de reequilibrio; es decir, antes tenía que terminar manualmente la instancia una vez que se completaba el reequilibrio de la carga de trabajo, o bien dejar que la instancia se ejecutara hasta que EC2 la interrumpiera. Ahora puede configurar EC2 Fleet o la flota de spot para que terminen automáticamente la instancia que recibe una recomendación de reequilibrio con una demora especificada para la terminación.

La terminación automática de instancias resulta útil para las cargas de trabajo en las que se puede calcular la cantidad de tiempo que se tarda en completar el trabajo y definirla como una demora en la terminación; p. ej., trabajos en lote con el mismo tiempo de procesamiento. Tenga en cuenta que Amazon EC2 aún puede interrumpir la instancia de spot con una notificación estándar de dos minutos antes de que finalice la demora en la terminación. Con la terminación automática de instancias, no es necesario crear una lógica personalizada de terminación de instancias. Para optimizar costos, puede hacer que EC2 Fleet o la flota de spot terminen automáticamente las instancias una vez que se complete el reequilibrio de la carga de trabajo.

EC2 Fleet y la flota de spot simplifican el aprovisionamiento de capacidad de EC2 en diferentes tipos de instancias EC2, zonas de disponibilidad y modelos de compra (en diferido, instancias reservadas, Savings Plans e instancias de spot) lo que permite optimizar la escalabilidad, el rendimiento y el costo de su aplicación. Para conocer más sobre la terminación automática de instancias con el reequilibrio de capacidades, consulte la documentación de EC2 Fleet, la documentación de la flota de spot y la publicación del blog de informática de AWS.

Amazon CloudFront lanza la compatibilidad con las políticas de encabezados de respuesta. Ahora puede agregar el uso compartido de recursos entre orígenes (CORS), la seguridad y los encabezados personalizados a las respuestas HTTP devueltas por sus distribuciones de CloudFront. Ya no es necesario configurar los orígenes ni utilizar funciones personalizadas de Lambda@Edge o CloudFront para insertar estos encabezados. 

Puede utilizar las políticas de encabezados de respuesta de CloudFront para asegurar las comunicaciones de su aplicación y personalizar su comportamiento. Con los encabezados CORS, puede especificar desde qué orígenes se permite a una aplicación web acceder a los recursos. Puede insertar cualquiera de los siguientes encabezados de seguridad para intercambiar información relacionada con la seguridad entre aplicaciones web y servidores: HTTP Strict Transport Security (HSTS), X-XSS-Protection, X-Content-Type-Options, X-Frame-Options, Referrer-Policy y Content-Security-Policy. Por ejemplo, HSTS impone el uso de conexiones HTTPS cifradas en lugar de HTTP en texto no cifrado. También puede agregar pares clave-valor personalizables a los encabezados de respuesta utilizando políticas de encabezados de respuesta, para modificar el comportamiento de las aplicaciones web. Los encabezados de respuesta insertados también son accesibles para las funciones de Lambda@Edge y las funciones de CloudFront, lo que permite una lógica personalizada más avanzada en el borde.

Con esta versión, CloudFront también proporciona varias políticas de encabezados de respuesta preconfigurados. Estas incluyen políticas para encabezados de seguridad predeterminados, una política CORS que permite compartir recursos desde cualquier origen, una política CORS pre-flight que permite todos los métodos HTTP, y políticas que combinan encabezados de seguridad predeterminados con CORS o CORS pre-flight. También puede crear sus propias políticas personalizadas para varios perfiles de contenido y aplicaciones y ponerlas en práctica en el comportamiento de la caché de cualquier distribución de CloudFront que pueda tener características similares.

Las políticas de encabezados de respuesta de CloudFront están disponibles para su uso inmediato a través de la consola de CloudFront, los SDK de AWS y la AWS CLI. Para obtener más información, consulte la Guía para desarrolladores de CloudFront. No hay ningún cargo adicional por el uso de las políticas de encabezados de respuesta de CloudFront.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS octubre

 

Amazon Web Services (AWS) anuncia la disponibilidad general de las instancias C6i de Amazon EC2 optimizadas para informática. Las instancias C6i cuentan con la tecnología de los procesadores Intel Xeon Scalable de tercera generación (código Ice Lake) con una frecuencia turbo para todos los núcleos de 3,5 GHz, ofrecen un rendimiento de precios de cómputo hasta un 15 % mejor que las instancias C5 para una variedad de cargas de trabajo, y un cifrado de memoria siempre activo con Intel Total Memory Encryption (TME). Las instancias C6i, diseñadas para cargas de trabajo que requieren un uso informático intensivo, se basan en el sistema Nitro de AWS, una combinación de hardware dedicado e hipervisor ligero, que ofrece prácticamente todos los recursos informáticos y de memoria del hardware del host a sus instancias. Estas instancias son ideales para cargas de trabajo con uso informático intensivo, como el procesamiento en lotes, el análisis distribuido, la informática de alto rendimiento (HPC), la entrega de anuncios, los videojuegos multijugador con alto nivel de escalabilidad y la codificación de videos.

Con el fin de satisfacer las demandas de mayor escalabilidad por parte de los clientes, las instancias C6i ofrecen un nuevo tamaño de instancia (c6i.32xlarge) con 128 vCPU y 256 GiB de memoria, un 33 % más que la instancia C5 más grande. También ofrecen una banda ancha con hasta un 9 % más de memoria por vCPU en comparación con las instancias C5. C6i también ofrece a los clientes una velocidad de redes de hasta 50 Gbps y una banda ancha de 40 Gbps a Amazon Elastic Block Store, el doble que las instancias C5. Los clientes pueden usar Elastic Fabric Adapter en el tamaño 32xlarge, lo que permite una baja latencia y una comunicación entre nodos altamente escalable. Para un rendimiento óptimo de las redes en estas nuevas instancias, actualice los controladores de Elastic Network Adapter (ENA) a la versión 3. Para más información, consulte este artículo sobre cómo habilitar y configurar redes mejoradas en instancias EC2.

Estas instancias están disponibles actualmente de forma general en las regiones de AWS de EE. UU. Este (Norte de Virginia, Ohio), EE. UU. Oeste (Oregón) y Europa (Irlanda). Las instancias C6i están disponibles en 9 tamaños, con 2, 4, 8, 16, 32, 48, 64, 96 y 128 vCPU. Los clientes pueden comprar las nuevas instancias por medio de instancias de spot, en diferido, reservadas y Savings Plans. Para comenzar, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, visite la página de instancias C6i.

Amazon Elastic Kubernetes Service (EKS) ahora suma compatibilidad nativa con Bottlerocket en los grupos de nodos administrados de EKS en todas las regiones comerciales de AWS. En la actualidad, la mayoría de los clientes de EKS implementan sus aplicaciones en nodos de trabajo respaldados por sistemas operativos que están diseñados para una variedad de casos de uso. AWS lanzó Bottlerocket, un sistema operativo de código abierto, mínimo y basado en Linux, que se creó específicamente y se optimizó para ejecutar contenedores. Los grupos de nodos administrados de EKS y Bottlerocket, cuando se combinan, dan a los clientes una manera sencilla de aprovisionar y administrar la capacidad informática a través de las prácticas recomendadas más recientes para la ejecución de contenedores en producción. Bottlerocket ahora se incluye como opción de AMI integrada para grupos de nodos administrados, lo que permite a los clientes aprovisionar nodos de trabajo optimizados para contenedores con un único clic.

Los clientes de EKS pueden migrar fácilmente sus aplicaciones para que se ejecuten en nodos de trabajo basados en Bottlerocket y se beneficien de una posición de seguridad de nodos mejorada. Al pasarse a nodos de trabajo que incluyen solo el conjunto mínimo de paquetes necesarios para ejecutar contenedores, los clientes se benefician de una menor superficie de ataque, un menor tiempo de aprovisionamiento de nodos y una mayor eficiencia, ya que se asignan a las aplicaciones un mayor número de recursos de nodo. De esta manera, se mejora la utilización y la escala de los clústeres. Los grupos de nodos administrados ofrecen notificaciones cuando hay disponibles AMI de EKS Bottlerocket más recientes, lo que permite a los clientes actualizar los nodos de manera más sencilla a las versiones más recientes del software.

Para comenzar, los clientes pueden seguir sus flujos de trabajo existentes para aprovisionar los grupos de nodos administrados y sencillamente seleccionar Bottlerocket como tipo de AMI en las opciones de configuración informática. Bottlerocket está disponible sin costo adicional y es totalmente compatible con AWS. Solo se paga por las instancias EC2 que se conectan al clúster. Para comenzar, consulte nuestro blog y la documentación de EKS.

AWS anuncia hoy la disponibilidad de AWS Fargate para contenedores de Windows en Amazon ECS. Esta característica simplifica la adopción de una tecnología de contenedores moderna para los clientes de Amazon ECS, ya que hace que la ejecución de contenedor de Windows en AWS sea aún más sencilla.

Los clientes que ejecutan aplicaciones de Windows dedican mucho tiempo y esfuerzo a proteger y escalar las máquinas virtuales para la ejecución de sus cargas de trabajo en contenedores. El aprovisionamiento y la administración de los componentes y configuraciones de la infraestructura pueden socavar la productividad de los equipos de desarrolladores e infraestructura. Con el lanzamiento de hoy, ya no es necesario que los clientes configuren grupos de escalado automático ni administren instancias de host para una aplicación. Fargate, además de ofrecer aislamiento a nivel de las tareas, se encarga de los parches y actualizaciones necesarios, para ayudar a brindar un entorno informático protegido. Los clientes pueden reducir el tiempo que dedican a los esfuerzos operativos y, en su lugar, enfocarse en desarrollar y entregar aplicaciones innovadoras.

Con Fargate, la facturación tiene una granularidad por segundo, con un mínimo de 15 minutos, y los clientes solo pagan la cantidad de vCPU y recursos de memoria que solicita su aplicación en contenedores. Además, los clientes pueden seleccionar un Compute Savings Plan, que les permite ahorrar dinero a cambio de un compromiso de uno o tres años por una cantidad uniforme de uso informático. Para obtener más detalles, visite la página de precios de Fargate.

La compatibilidad de Fargate para contenedores de Windows en Amazon ECS está disponible en todas las regiones de AWS, salvo en las regiones de AWS de China y AWS GovCloud (EE. UU.). Admite la versión del Canal de mantenimiento a largo plazo (LTSC) de Windows Server 2019 en la plataforma Windows para Fargate, versión 1.0.0 o posterior. Consulte nuestra documentación pública y lea la entrada de blog Running Windows Containers with Amazon ECS on AWS Fargate (Ejecución de contenedores de Windows con Amazon ECS en AWS Fargate) para más información sobre el uso de esta característica desde la API, la interfaz de línea de comandos (CLI) de AWS, los SDK de AWS o AWS Copilot CLI.

A partir de hoy, puede solicitar la capacidad de EC2 en función de las necesidades de instancias de su carga de trabajo. La selección de tipo de instancias basada en atributos, una nueva característica de Amazon EC2 Auto Scaling, EC2 Fleet y Spot Fleet, facilita la creación y el mantenimiento de flotas de instancias sin necesidad de investigar y seleccionar los tipos de instancias EC2. Resulta útil para ejecutar cargas de trabajo y marcos flexibles de tipo de instancias, como contenedores, big data y CI/CD, o para casos sencillos en los que desee que las flotas de instancias utilicen automáticamente los tipos de instancias de última generación. En lugar de crear y mantener una lista de tipos de instancias aceptables, ahora puede definir simplemente los requisitos de instancia una vez y dejar que la selección de tipo de instancias basada en atributos se encargue del resto.

Para comenzar, cree o modifique un grupo de Auto Scaling o flota y especifique los requisitos de instancia de su carga de trabajo. Para la mayoría de las cargas de trabajo de uso general es suficiente con especificar el número de vCPU y la memoria que necesita. Para casos de uso avanzados, puede especificar atributos como el tipo de almacenamiento, las interfaces de red, el fabricante de la CPU y el tipo de acelerador. Una vez que haya terminado, EC2 Auto Scaling o Fleet seleccionará y lanzará instancias basadas en los atributos, la opción de compra y la estrategia de asignación que haya seleccionado.

La selección de tipo de instancias basada en atributos es especialmente útil para la ejecución de cargas de trabajo de tipo de instancias flexibles en las instancias de spot de EC2. La mejor manera de utilizar las instancias de spot es solicitar la capacidad a través de tantos tipos de instancias como sea posible. La selección de tipo de instancias basada en atributos facilita la elección de la más amplia gama de tipos de instancias disponibles en función de sus necesidades. También puede preparar sus flotas de instancias para el futuro al agregar automáticamente tipos de instancias EC2 de nueva generación en los grupos de Auto Scaling o flotas a medida que se lanzan.

Para obtener más información, consulte la documentación y la publicación del blog sobre la selección de tipo de instancias basada en atributos de Amazon EC2 Auto Scaling , la documentación sobre la selección de tipo de instancias basada en atributos de la flota de EC2 y la documentación sobre la selección de tipo de instancias basada en atributos de la flota de spot.

Amazon EC2 Auto Scaling ayuda a mantener la disponibilidad de la aplicación y permite agregar o eliminar automáticamente instancias EC2 según las condiciones que defina. Puede utilizar las características de administración de flotas para mantener el estado y la disponibilidad de la suya. EC2 Auto Scaling está disponible en todas las regiones comerciales de AWS y en las regiones de AWS GovCloud (EE. UU.). Para obtener más información, visite la página de documentación de Amazon EC2 Auto Scaling.

Amazon EC2 Fleet y Spot Fleet simplifican el aprovisionamiento de capacidad de EC2 en diferentes tipos de instancias EC2, zonas de disponibilidad y modelos de compra (bajo demanda, instancias reservadas, Savings Plans e instancias de spot) lo que permite optimizar la escala, el rendimiento y el costo de su aplicación. Para obtener más información sobre el uso de EC2 Fleet, visite esta página. Para obtener más información sobre el uso de Spot Fleet, visite esta página.

AWS presenta la evaluación de ubicación de spot de Amazon EC2 para ayudarle a encontrar la ubicación óptima para sus cargas de trabajo de spot. La disponibilidad de las instancias de spot varía en función del tipo de instancias, la hora del día, la región y la zona de disponibilidad. Hasta ahora no había forma de encontrar una región o zona de disponibilidad óptima para satisfacer las necesidades de capacidad de spot sin intentar lanzar primero instancias de spot en ellas. Ahora, la evaluación de ubicación de spot puede recomendar una región o zona de disponibilidad en función de sus necesidades de capacidad de spot. La evaluación de ubicación de spot es útil para las cargas de trabajo flexibles de tipo instancias que se pueden lanzar en cualquier región o zona de disponibilidad.

Para comenzar, diríjase a la pantalla de evaluación de la ubicación de spot en la consola de spot de EC2. Solo tiene que especificar la cantidad de capacidad de Spot que desea solicitar, cuáles son sus requisitos de tipo de instancias y si desea una recomendación para una región o una sola zona de disponibilidad. Para los requisitos de tipo de instancias, puede proporcionar una lista de tipos de instancias, o puede especificar simplemente los atributos que deben tener las instancias, como el número de vCPU y la cantidad de memoria. Recibirá una puntuación para cada región o zona de disponibilidad en una escala del 1 al 10, basándose en factores como los tipos de instancias solicitadas, la capacidad de destino, las tendencias históricas y actuales de uso de spot y la hora de la solicitud. La puntuación refleja la probabilidad de éxito a la hora de aprovisionar la capacidad de spot, donde un 10 significa que la solicitud tiene una alta probabilidad de éxito. Tenga en cuenta que la evaluación de ubicación de spot es solamente una recomendación y que ninguna evaluación garantiza que la solicitud de spot se cumpla total o parcialmente.

Puede utilizar la evaluación de ubicación de spot a través de la consola de spot de EC2, AWS CLI o SDK. Para obtener más información sobre la evaluación de ubicación de spot, consulte la documentación sobre la evaluación de ubicación de spot y la publicación del blog.

Ahora puede definir un comportamiento de corte para las tareas de mantenimiento mediante AWS Systems Manager Maintenance Windows, que le permite detener o continuar las tareas en curso cuando se alcanza la hora de corte. Esto proporciona a los ingenieros de DevOps y de TI un mayor control sobre el comportamiento de corte para garantizar que las tareas perturbadoras no se ejecuten fuera del período deseado. Por ejemplo, ahora se puede configurar el comportamiento de corte para cancelar las tareas en curso al registrar una tarea de automatización con una ventana de mantenimiento. Esto garantizaría que no hay nuevas invocaciones de tareas cuando se alcanza la hora de corte.

Para comenzar, abra la consola de AWS Systems Manager y, en el panel de navegación, seleccione Maintenance Windows (Ventanas de mantenimiento). A continuación, habilite el corte de invocación de nuevas tareas mientras define una nueva tarea de la ventana de mantenimiento.

Esta característica está disponible en todas las regiones de AWS que son compatibles con Systems Manager, excluyendo la de China (Pekín), operada por Sinnet y la de China (Ningxia), operada por NWCD. Los clientes pueden utilizar esta característica sin cargo adicional. Para obtener más detalles sobre las ventanas de mantenimiento, visite la página del producto de AWS Systems Manager y la documentación.

Amazon DocumentDB (compatible con MongoDB) es un servicio de base de datos creado específicamente para la administración de datos JSON a escala, completamente administrado e integrado con AWS y ofrece alta durabilidad a empresas.

Hoy, Amazon DocumentDB anunció un controlador de JDBC que le permite conectarse a herramientas de inteligencia empresarial, tales como Tableau, MicroStrategy y QlikView. Los clientes también pueden utilizar el controlador de JDBC para ejecutar consultas SQL de su clúster de Amazon DocumentDB desde herramientas como SQLWorkbench. Los clientes pueden descargar el controlador aquí. El controlador de JDBC de DocumentDB es de código abierto y también está disponible para la comunidad de usuarios en conformidad con la licencia Apache 2.0 en GitHub. Los clientes pueden utilizar el repositorio de GitHub para obtener una visibilidad mejorada de la implementación del controlador y contribuir a su desarrollo.

Para obtener más información sobre cómo utilizar el controlador, consulte Utilizar el controlador de JDBC de DocumentDB. Si es nuevo en Amazon DocumentDB, la guía de introducción mostrará como aprovisionar rápidamente un clúster Amazon DocumentDB y explorar la flexibilidad del modelo de documentos. 

Amazon CloudFront ahora proporciona un encabezado CloudFront-Viewer-Address que incluye información sobre la dirección IP y el puerto de conexión para los clientes que la requieren. El campo del puerto de conexión indica el puerto fuente TCP que utiliza el cliente solicitante. Anteriormente, la información sobre la dirección IP y el puerto de conexión del cliente solo estaba disponible en los registros de acceso de CloudFront, lo que dificultaba la resolución de problemas o la toma de decisiones en tiempo real en función de estos datos. Ahora, puede configurar las políticas de solicitud de origen de CloudFront para reenviar el encabezado CloudFront-Viewer-Address a los servidores de origen. El encabezado también se puede utilizar en funciones de CloudFront cuando se incluyen en una política de solicitud de origen. El encabezado CloudFront-Viewer-Address utiliza la siguiente sintaxis: CloudFront-Viewer-Address: 127.0.0.1:4430

El encabezado de CloudFront-Viewer-Address se proporciona sin costo adicional. Puede utilizar el encabezado, junto con otros encabezados de CloudFront, para fines de análisis, auditoría y registro. A fin de obtener más información sobre cómo utilizar el encabezado de CloudFront-Viewer-Address, consulte la Guía para desarrolladores de CloudFront. Obtenga más información sobre las políticas de solicitud de origen y memoria caché en nuestro blog. Para obtener más información acerca de Amazon CloudFront, visite nuestra página de productos de CloudFront.

AWS Load Balancer Controller proporciona una forma nativa de Kubernetes para configurar y administrar los balanceadores de carga elásticos que enrutan el tráfico a aplicaciones que se ejecutan en clústeres de Kubernetes. Elastic Load Balancing ofrece cuatro tipos de balanceadores de carga que cuentan con el nivel necesario de alta disponibilidad, escalado automático y seguridad sólida para que sus aplicaciones sean tolerantes a errores.

La versión 2.3 de AWS Load Balancer Controller para Kubernetes ya está disponible. Esta actualización agrega múltiples mejoras para facilitar el enrutamiento del tráfico a sus aplicaciones utilizando balanceadores de carga elástico entre las que se que incluyen:

  • Compatibilidad con el grupo de destino IPv6 para los balanceadores de carga de aplicaciones.
  • Optimizaciones de la administración de reglas de grupos de seguridad que reducen el número total de reglas de grupos de seguridad necesarias cuando se utilizan varios balanceadores de carga por clúster. 
  • Mayor rendimiento en clústeres de gran tamaño gracias a la compatibilidad con Kubernetes Endpoint Slices.
  • Compatibilidad con la especificación de los atributos del balanceador de carga de red, incluida la protección contra la eliminación.
  • Compatibilidad con la especificación de atributos del balanceador de carga de aplicaciones mediante IngressClassParams.
  • Detección automática de subredes en función de las direcciones IP disponibles.

Puede encontrar más información sobre los parámetros de configuración del controlador y los valores predeterminados aquí y aquí. Para comenzar a usar AWS Load Balancer Controller, consulte la guía de instalación y el tutorial en GitHub. Para obtener más información sobre Amazon EKS, vaya a la página del producto o consulte la documentación.

Importante
Amazon EKS no es compatible con IPv6. Puede seguir el desarrollo de esta característica suscribiéndose a la sección de compatibilidad de EKS con IPv6 en el plan de desarrollo de los contenedores. 

Amazon WorkSpaces ahora ofrece API que puede utilizar para mantener sus imágenes de WorkSpaces actualizadas con los últimos controladores de AWS. Anteriormente, las imágenes de WorkSpaces se actualizaban lanzando manualmente una instancia de WorkSpaces, instalando las actualizaciones de los controladores y creando una nueva imagen. Gracias a este lanzamiento, puede utilizar las API de WorkSpaces para saber si los últimos controladores de AWS están disponibles para sus imágenes, instalar esas actualizaciones y crear imágenes actualizadas. Una vez creada la nueva imagen, puede probarla antes de actualizar los paquetes de producción o compartir la imagen con otras cuentas de AWS. La actualización de sus WorkSpaces con los últimos controladores de AWS le permite aprovechar los beneficios de los últimos tipos de instancias y otros componentes de infraestructura que ofrece AWS.

Esta API ya está disponible en todas las Regiones de AWS en las que Amazon WorkSpaces está disponible.

El uso de esta API no tiene ningún costo adicional y se habilita automáticamente para usted. Para más información, consulte CreateUpdatedWorkspaceImage en la referencia del API de Amazon WorkSpaces.

Las pruebas de carga distribuida en AWS es una solución que automatiza las pruebas de aplicaciones de software a escala y en carga para ayudarle a identificar posibles problemas de rendimiento antes de su lanzamiento. Crea y simula miles de usuarios conectados que generan registros transaccionales a un ritmo constante sin la necesidad de aprovisionar servidores.

La solución actualizada incluye la posibilidad de ver los datos de pruebas anteriores. Los datos incluyen la configuración de las pruebas, los datos de las pruebas y el historial de resultados visualizados a través de los paneles de control de Amazon CloudWatch. La actualización también incluye compatibilidad para utilizar su Amazon Virtual Private Cloud (Amazon VPC) existente y lanza las tareas de AWS Fargate en múltiples zonas de disponibilidad. Por último, la actualización incluye el código fuente del kit de desarrollo de la nube de AWS (AWS CDK) para generar la plantilla de AWS CloudFormation y es compatible con el acceso a la imagen del contenedor de la solución desde el repositorio público de imágenes Elastic Container Registry administrado por AWS.

Además, se encuentran disponibles otras ofertas de implementaciones de soluciones de AWS en la página de soluciones de AWS, donde los clientes pueden buscar preguntas comunes ordenadas por categorías para encontrar respuestas en forma de resúmenes de soluciones o implementaciones de soluciones completas, es decir, implementaciones de referencia listas para usar, automatizadas y autorizadas por AWS, que abordan necesidades empresariales específicas.

Hoy, Amazon EC2 Auto Scaling anunció la capacidad para describir grupos de Auto Scaling mediante etiquetas. El filtrado basado en etiquetas facilita la visualización y administración de sus grupos de Auto Scaling en función de las etiquetas que le interesen. Cada etiqueta es una marca sencilla que consiste en una clave definida por el cliente y un valor opcional.

Por ejemplo, puede contar con varios grupos de Auto Scaling que etiquete de manera que indiquen el entorno del que forman parte (p. ej., utilizando la clave “entorno”, cuyo valor puede ser “desarrollo”, “pruebas” o “producción”). Antes, podía determinar qué grupos contaban con la etiqueta “environment:prod” al llamar primero a la API describe-tags, y luego describir los grupos de Auto Scaling que se mostraban. Ahora puede llamar directamente a la API describe-auto-scaling-groups y filtrarlos por la etiqueta “environment:prod”.

Esta característica está disponible a través de los SDK de AWS y la interfaz de línea de comandos (CLI) de AWS. Amazon EC2 Auto Scaling está disponible en todas las regiones de AWS públicas y en regiones de AWS GovCloud (EE. UU.). Para obtener más información sobre esta característica, visite esta documentación de AWS.

AWS Instance Scheduler es una solución que le ayuda a controlar el costo de los recursos de AWS mediante la configuración de horarios de inicio y detención para las instancias de Amazon Elastic Compute Cloud (instancias bajo demanda de Amazon EC2) y Amazon Relational Database Service (Amazon RDS).

Además, contribuye a la reducción de los costos operativos al poner en marcha y detener los recursos en función de horarios predefinidos. Por ejemplo, una empresa puede utilizar AWS Instance Scheduler para iniciar y detener automáticamente las instancias en función de una programación predefinida. En caso de que sepa cuándo se necesitan los clústeres EC2/RDS/Aurora (p. ej., de 9.00 h a 17.00 h de lunes a viernes), puede definir un horario y etiquetar los recursos con el nombre del horario. El programador de instancias utilizará las programaciones para iniciar y detener las instancias utilizando los Runbooks de SSM Automation. Esto ayudará a reducir el costo de los recursos haciendo que las instancias solo estén disponibles cuando lo desee. Esta solución también simplifica la administración de recursos en varias regiones y cuentas mediante plantillas de CloudFormation. Una sola pila en una cuenta principal puede programar instancias en varias regiones y cuentas utilizando AWS Systems Manager Automations.

La solución actualizada incluye documentos personalizados de AWS Systems Manager, que se pueden utilizar en la consola de AWS Systems Manager para iniciar y detener instancias EC2/RDS utilizando asociaciones del administrador de estados.

Además, se encuentran disponibles otras ofertas de implementaciones de soluciones de AWS en la página de soluciones de AWS, donde los clientes pueden buscar preguntas comunes ordenadas por categorías para encontrar respuestas en forma de resúmenes de soluciones o implementaciones de soluciones completas, es decir, implementaciones de referencia listas para usar, automatizadas y autorizadas por AWS, que abordan necesidades empresariales específicas.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS septiembre

Amazon ParallelCluster es una herramienta de administración de clústeres de código abierto mantenida y totalmente compatible. Esta herramienta facilita a científicos, investigadores y administradores de TI la implementación y administración de clústeres de informática de alto rendimiento (HPC) en Amazon Web Services. Los clústeres de HPC son tradicionalmente conjuntos de recursos de redes, almacenamiento e informática estrechamente acoplados que permiten a los clientes ejecutar cargas de trabajo científicas y de ingeniería a gran escala.

Con su última versión, hemos presentado una importante actualización de AWS ParallelCluster. Las mejoras significativas de esta versión incluyen:

  • Soporte para la administración de clústeres a través de Amazon API Gateway: ahora los clientes pueden administrar e implementar clústeres a través de puntos de enlace HTTP con Amazon API Gateway. Esto abre nuevas posibilidades para flujos de trabajo dirigidos por scripts o eventos, como la creación de nuevos clústeres durante la captura de conjuntos de datos o cuando la infraestructura existente es insuficiente para satisfacer las necesidades informáticas dinámicas. Estas API también facilitan a los creadores el uso de AWS ParallelCluster como bloque de creación en sus flujos de trabajo de HPC y la creación de sus propias soluciones extensibles, servicios e interfaces front end personalizadas. La interfaz de línea de comandos (CLI) de AWS ParallelCluster también se ha rediseñado para que sea compatible con esta API e incluye una nueva opción de salida JSON. Esta nueva funcionalidad hace posible que los clientes implementen capacidades de bloques de creación similares utilizando también la CLI.
  • Creación mejorada de AMI personalizadas: ahora los clientes tienen acceso a un proceso más robusto para crear y gestionar AMI personalizadas utilizando EC2 Image Builder. Los clientes pueden especificar los componentes de creación para instalar software, aplicar pasos de refuerzo de la seguridad o modificar la configuración del sistema operativo de forma replicable. Las AMI personalizadas ahora se pueden administrar a través de un archivo de configuración de AWS ParallelCluster separado, y se pueden crear utilizando el comando pcluster build-image en la interfaz de línea de comandos de AWS ParallelCluster
  • Configuración robusta del clúster: los archivos de configuración del clúster se han modificado para hacerlos más robustos y fáciles de mantener. Puede obtener más información sobre los cambios en nuestros archivos de configuración aquí.

Para obtener información más detallada, puede encontrar las notas completas acerca de la última versión de Amazon ParallelCluster aquí.

Amazon Elasticsearch Service ahora se llama Amazon OpenSearch Service. Este cambio, anunciado previamente aquí, coincide con la incorporación de compatibilidad con OpenSearch 1.0. Ahora puede ejecutar y escalar clústeres de OpenSearch y Elasticsearch (hasta la versión 7.10) en Amazon OpenSearch Service y obtener los mismos beneficios de los que ha disfrutado hasta ahora desde Amazon Elasticsearch Service.

OpenSearch 1.0, es una suite de búsqueda y análisis, basada en la comunidad y de código abierto, derivada de Elasticsearch 7.10.2 y Kibana 7.10.2 con licencia de Apache 2.0. Consta de un motor de búsqueda, OpenSearch, y de una interfaz de visualización y de usuario, OpenSearch Dashboards. Con OpenSearch 1.0, agregamos compatibilidad en Amazon OpenSearch Service para un buen número de nuevas características, como transformaciones, flujos de datos y blocs de notas en OpenSearch Dashboards. Para obtener más información sobre OpenSearch y la versión más reciente, consulte https://opensearch.org/.

Junto con OpenSearch 1.0, seguimos ofreciendo compatibilidad con las versiones heredadas de Elasticsearch hasta la 7.10 en el servicio. Puede actualizar sus clústeres de Elasticsearch existentes en Amazon OpenSearch Service a OpenSearch 1.0, de manera similar a cómo actualiza a versiones más recientes de Elasticsearch. Hemos cambiado nuestras API de configuración para hacerlas genéricas (p. ej., CreateElasticsearchDomain a CreateDomain), además de lanzar una nueva versión del SDK. Conservamos la compatibilidad retroactiva para ayudarle a seguir operando su clúster y que este cambio de nombre sea lo más fluido posible para usted. A medida que realizamos este cambio de nombre, empezará a ver el nuevo nombre del servicio, Amazon OpenSearch Service, además de nuevos tipos de recurso para OpenSearch, en consolas de varios servicios de AWS, en la documentación y en las API. Consulte las preguntas frecuentes para obtener más información y la documentación para obtener un resumen de los cambios relacionados con este cambio de nombre.

OpenSearch 1.0 en Amazon OpenSearch Service está disponible en 25 regiones de todo el mundo: EE. UU. Este (Norte de Virginia, Ohio), EE. UU. Oeste (Oregón, Norte de California), AWS GovCloud (EE. UU.-Gov-Este, EE. UU.-Gov-Oeste), Canadá (Central), América del Sur (São Paulo), UE (Irlanda, Londres, Fráncfort, París, Estocolmo y Milán) y Asia-Pacífico (Singapur, Sídney, Tokio, Seúl, Mumbai, Hong Kong, Osaka), Medio Oriente (Baréin), China (Pekín, a cargo de Sinnet y Ningxia, a cargo de NWCD) y África (Ciudad del Cabo). Para obtener más información acerca de la disponibilidad de Amazon OpenSearch Service, consulte la Tabla de regiones de AWS.

Para obtener más información, consulte la documentación.

Amazon Elastic Kubernetes Service (Amazon EKS) ahora le permite conectar cualquier clúster de Kubernetes compatible con AWS y visualizarlo en la consola de Amazon EKS. Puede conectar cualquier clúster de Kubernetes compatible, incluidos los clústeres de Amazon EKS Anywhere que se ejecutan en las instalaciones, los clústeres autoadministrados en Amazon Elastic Compute Cloud (Amazon EC2) y otros clústeres de Kubernetes que se ejecutan fuera de AWS. Independientemente de dónde se ejecute el clúster, puede utilizar la consola de Amazon EKS para ver todos los clústeres conectados y los recursos de Kubernetes que se ejecutan en ellos.

Para conectar el clúster, el primer paso es registrarlo en Amazon EKS mediante la consola de Amazon EKS, la API de Amazon EKS o eksctl. Después de proporcionar los datos necesarios, como el nombre del clúster y un rol de IAM que incluya los permisos necesarios, recibirá un archivo de configuración para Amazon EKS Connector, un agente de software que se ejecuta en un clúster de Kubernetes y permite que el clúster se registre en Amazon EKS. Después de aplicar el archivo de configuración al clúster, el registro se habrá completado. Una vez que su clúster esté conectado, podrá ver el clúster, su configuración y las cargas de trabajo, así como su estado en la consola de Amazon EKS. Consulte la documentación de EKS para obtener más información.

Hoy, AWS anunció que los clientes pueden utilizar alias para consultar las Amazon Machine Images (AMI) adquiridas desde AWS Marketplace. Los alias de AMI son identificadores únicos que se utilizan en lugar de un ID de AMI en scripts de implementación. A partir de hoy, los alias están disponibles para todos los productos de AMI única en AWS Marketplace. Esto simplifica el lanzamiento de nuevas AMI ya que los clientes no tienen que cambiar el ID de la AMI para cada región siempre que haya una actualización de versión. En lugar de eso, los clientes pueden utilizar un único alias que se resolverá automáticamente a la región de AWS actual. Además, los clientes siempre pueden referirse a la versión más reciente si utilizan el alias “más reciente” para un producto de AMI específico. Esto automatizará las canalizaciones de implementación y reducirá los pasos manuales necesarios para actualizar a una nuevo versión de una AMI adquirida desde AWS Marketplace.

Los clientes pueden encontrar el alias de la AMI suscrita en la página de configuración del producto. Para obtener más información, consulte la documentación pública aquí.

A partir de hoy, AWS Network Firewall es un servicio avalado por la HIPAA. Esto significa que puede utilizar AWS Network Firewall para proteger e inspeccionar la información sanitaria protegida (PHI) almacenada en sus cuentas.

Si tiene un anexo para socios empresariales (BAA) de HIPAA con AWS vigente, puede comenzar a usar AWS Network Firewall para las cargas de trabajo reguladas por la ley HIPAA. Si no tiene un BAA vigente con AWS o tiene alguna otra pregunta sobre cómo ejecutar cargas de trabajo reguladas por la ley HIPAA en AWS, contacte con nosotros.

AWS Network Firewall es un servicio de firewall administrado que facilita la implementación de protecciones de red esenciales para todas las Amazon Virtual Private Cloud (VPC). El servicio se escala automáticamente con el volumen de tráfico de la red para proporcionar protecciones de alta disponibilidad sin necesidad de configurar o mantener la infraestructura subyacente. AWS Network Firewall está integrado con AWS Firewall Manager para poder ver y controlar desde un único lugar las políticas de firewall en varias cuentas de AWS. Para obtener más información sobre AWS Network Firewall, consulte la página del producto de AWS Network Firewall y la documentación del servicio. 

Amazon Elastic File System (EFS) ahora es compatible con Intelligent-Tiering, una capacidad que facilita la optimización de costes para el almacenamiento de archivos compartidos, incluso cuando los patrones de acceso cambien. EFS Intelligent-Tiering está diseñado para ayudarle a lograr el precio justo y la combinación de rendimiento para sus datos de archivos de aplicaciones colocando los datos de archivos en una clase de almacenamiento según los patrones de acceso a los archivos.

EFS Intelligent-Tiering usa la administración del ciclo de vida para monitorear los patrones de acceso a la carga de trabajo y se ha diseñado para transferir automáticamente archivos a los cuales no se accede a lo largo de toda la duración de la política de ciclo de vida (por ejemplo, 30 días) desde las clases de almacenamiento EFS Estándar o EFS Única zona hasta su clase de almacenamiento de acceso poco frecuente correspondiente (acceso poco frecuente de EFS Estándar o acceso poco frecuente de EFS Única zona). Esto le permite aprovechar los precios de almacenamiento de acceso poco frecuente, que son hasta un 92 % más bajos que los precios de EFS Estándar o EFS Única zona para cargas de trabajo con patrones de acceso cambiantes.

Además, si cambian los patrones de acceso, EFS Intelligent-Tiering está diseñado para devolver automáticamente los archivos a clases de almacenamiento (EFS Estándar o EFS Única zona) con rendimiento optimizado. Gracias a esto evitará los riesgos de cargos por acceso ilimitado y, a su vez, se mantendrán latencias consistentes bajas. Si los archivos vuelven a considerarse de acceso poco frecuente, EFS Intelligent-Tiering está concebido para que transfiera los archivos a la clase de almacenamiento de acceso poco frecuente correspondiente según la política de ciclo de vida.

Amazon EFS Intelligent-Tiering está disponible en todas las regiones de AWS en las que Amazon EFS esté disponible.

Para más información, consulte el blog de novedades de AWS, la documentación de EFS y cree un sistema de archivos con tan solo un clic en la consola de Amazon EFS.

AWS Database Migration Service (AWS DMS) amplía la funcionalidad al admitir la migración de varias bases de datos en una tarea mediante MongoDB y Amazon DocumentDB (compatible con MongoDB) como fuente. Con AWS DMS, ahora puede agrupar varias bases de datos de un clúster de MongoDB y migrarlas mediante una tarea de DMS a cualquier destino compatible con AWS DMS, incluido Amazon DocumentDB (compatible con MongoDB) con un tiempo de inactividad mínimo.

Para obtener más información, consulte Uso de MongoDB como fuente para Amazon DMS.

Para conocer la disponibilidad regional, consulte la tabla de regiones de AWS.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS agosto

AWS Innovation Sandbox aprovisiona entornos aislados y autónomos para ayudar a desarrolladores, profesionales de la seguridad y equipos de infraestructura a evaluar, explorar y crear pruebas de concepto (POC) de forma segura utilizando servicios de AWS y aplicaciones de terceros que se ejecutan en AWS.

El entorno de pruebas implementa controles de seguridad para administrar el acceso y los permisos a través de una conexión Amazon AppStream 2.0 basada en el navegador, lo que minimiza el riesgo de exfiltración de datos desde el entorno de red del usuario.

Esta implementación de soluciones incluye las siguientes características principales:

  • Aislamiento de cuentas: cree cuentas de entorno de pruebas dentro de una organización de AWS existente con aislamiento de redes para mantener seguras las cuentas existentes.
  • Medidas de seguridad: controles seguros con roles personalizados de AWS Identity and Access Management (IAM) para permitir a los usuarios experimentar libremente mientras se restringen los cambios administrativos en la cuenta del entorno de pruebas.
  • Controles de detección: los registros de Amazon CloudTrail se activan, almacenan y protegen para garantizar la auditoría de las actividades del entorno de pruebas.
  • Restricciones de movimiento de datos: impide que los usuarios carguen datos directamente desde sus máquinas locales. El acceso a los datos está controlado por los administradores de AWS Innovation Sandbox.

Esta solución también crea roles de IAM que permiten un acceso elevado a la cuenta del entorno de pruebas para permitir la personalización del entorno, según sea necesario. Para obtener más información y comenzar, visite la página web de implementación de soluciones.

Las implementaciones de soluciones de AWS ayudan a resolver problemas habituales y a crear con más rapidez mediante la plataforma de AWS. Dispone de más implementaciones de soluciones de AWS en la página web de implementaciones de soluciones de AWS, donde puede examinar implementaciones de referencia técnica aprobadas por arquitectos de AWS y que ofrecen arquitectura e instrucciones detalladas para su implementación.

El administrador de cambios, una capacidad de AWS Systems Manager, ahora le permite especificar el rol de AWS Identity and Access Management (IAM) como aprobadores para las solicitudes de cambio y las plantillas de cambio. El administrador de cambios simplifica la manera en que puede solicitar, aprobar, implementar y notificar cambios operativos en la configuración y la infraestructura de aplicaciones tanto en AWS como en las instalaciones. Ahora, tiene más flexibilidad para aprovechar su actual proveedor de identidades para las tareas de administración de cambios.

Gracias al administrador de cambios, puede utilizar flujos de trabajo de cambios predefinidos para ayudar a automatizar las aprobaciones y evitar los resultados involuntarios al realizar cambios operativos. Cada solicitud de cambio puede requerir una o más aprobaciones de usuarios o grupos de IAM. Con este lanzamiento, también puede agregar roles de IAM como aprobadores. Por ejemplo, si sus aprobadores asumen un rol al iniciar sesión en AWS, podrá permitir que cualquiera que asuma ese rol apruebe las solicitudes de cambio. El administrador de cambios también se integra con AWS Single Sign-On como otra opción para permitirle aprovechar la fuente de identidad existente al especificar los aprobadores.

El administrador de cambios está disponible en todas las regiones de AWS en las que se ofrece Systems Manager (salvo en las regiones de AWS GovCloud (EE. UU.) y las regiones de AWS China).

Para comenzar, en la consola de Systems Manager, elija el administrador de cambios en el panel de navegación izquierdo. Para obtener más información sobre el administrador de cambios, consulte la página del producto y la documentación de AWS Systems Manager. El administrador de cambios se cobra en función del uso e incluye una prueba gratuita de 30 días. Para obtener más información sobre los precios del administrador de cambios, visite nuestra página de precios.

Amazon Rekognition Video es un servicio basado en machine learning (ML) que puede analizar vídeos para detectar objetos, personas, rostros, texto, escenas, actividades y contenido inapropiado. La detección de segmentos de vídeo facilita a las empresas de medios de comunicación la agilización de las tareas operativas habituales mediante la detección automática de fotogramas negros sin audio, créditos finales, barras de color y cambios de plano en los archivos de vídeo. A partir de hoy, los clientes pueden detectar cuatro tipos de segmentos adicionales: créditos de apertura, segmentos de contenido, pizarras y logotipos de estudio. Además, los clientes obtienen una mayor precisión en la detección de tomas y en las complejas secuencias de créditos finales, junto con nuevas opciones de filtrado para la detección de fotogramas negros, a fin de que puedan gestionar distintas calidades de archivo y gamas de color. 

La detección de segmentos de vídeo permite a los equipos de operaciones y de la cadena de suministro de contenido multimedia agilizar las tareas de preparación de contenidos y de control de calidad (QC), que son altamente manuales y tediosas, para las aplicaciones de vídeo bajo demanda (VOD). Las tareas más comunes son: añadir marcadores como “Siguiente episodio” y “Saltar introducción”, detectar los marcadores de pausa publicitaria preinsertados, indicados por fotogramas negros sin audio, y eliminar las secciones no deseadas, como pizarras y barras de color, antes de la publicación. Con la detección de segmentos de vídeo, los clientes pueden reducir el tiempo de revisión de los activos de horas a minutos, reducir el coste de las operaciones manuales de 2 a 5 veces y preparar grandes volúmenes de contenidos de archivo o de terceros para la transmisión en streaming en poco tiempo. Esto ayuda a emisoras y plataformas de streaming a liberar recursos de los operadores para que realicen un trabajo de mayor valor, crear avisos de salto interactivos para mantener la atención de los usuarios y simplificar los flujos de trabajo de inserción de anuncios para facilitar la monetización.

Las actualizaciones de detección de segmentos de vídeo para Amazon Rekognition Video se lanzarán de forma gradual. Esta actualización ya está disponible en EE. UU. Este (Norte de Virginia), EE. UU. Oeste (Oregón), Asia-Pacífico (Mumbai), Asia-Pacífico (Sídney) y Asia-Pacífico (Seúl). El 9 de agosto estará disponible en Europa (Irlanda), Europa (Fráncfort), Europa (Londres), Asia-Pacífico (Singapur), EE. UU. Oeste (Norte de California), EE. UU. Este (Ohio) y Asia-Pacífico (Tokio). Para comenzar, lea nuestro blog, consulte nuestra documentación y descargue el SDK de AWS más reciente.

La actualización de instancias de Amazon EC2 Auto Scaling ahora permite realizar actualizaciones de la configuración del grupo de Auto Scaling (ASG), así como la posibilidad de omitir la sustitución de instancias ya actualizadas durante una actualización de instancias. Estas nuevas capacidades facilitan la implementación de cambios en una Imagen de Amazon Machine Image (AMI) o la instalación de software adicional de forma controlada. Para ayudarle aún más a la hora de implementar actualizaciones en las instancias de Auto Scaling, también presentamos cuatro nuevas notificaciones de eventos basadas en la actualización de instancias disponibles a través de Amazon EventBridge.

La actualización de instancias ofrece a los clientes la posibilidad de evitar la sustitución de instancias en caso de que éstas ya tengan la configuración deseada. Utilizando esta funcionalidad, los clientes pueden revertir o restablecer más rápido omitiendo las instancias cuya configuración ya coincide con la deseada. Este control adicional de actualización de instancias es útil para actualizar un ASG cuando una actualización de instancias ha fallado o se ha cancelado antes de completarse. Esta funcionalidad utiliza las plantillas de lanzamiento de EC2 para definir los ajustes de configuración de la instancia deseada.

Amazon EC2 Auto Scaling ahora es compatible con la actualización de la definición de la plantilla de lanzamiento al completarse correctamente una actualización de instancia. Anteriormente, los clientes tenían que configurar la nueva definición de plantilla de lanzamiento en el ASG y, a continuación, lanzar una actualización de la instancia. Ahora, los clientes pueden elegir actualizar automáticamente la definición del ASG con la nueva definición de la plantilla de lanzamiento una vez completada correctamente la actualización de la instancia.

Amazon EC2 Auto Scaling ahora genera cuatro nuevas notificaciones de eventos de Amazon EventBridge para la actualización de instancias. Amazon EC2 Auto Scaling ahora publica eventos para que los clientes puedan monitorear el estado de actualización de un ASG. Los nuevos eventos de EventBridge indican cuando una actualización de instancia ha comenzado, se ha realizado correctamente, ha fallado o se ha cancelado. Los clientes pueden utilizar estas notificaciones para automatizar acciones que dependen del estado de actualización de un ASG.

EC2 Auto Scaling es un servicio que ayuda a los clientes a mantener la disponibilidad de las aplicaciones por medio del escalado automático del número de instancias de EC2 en función de las condiciones definidas. La actualización de instancias es una característica de EC2 Auto Scaling que permite la implementación automática de instancias en un ASG para migrar a nuevas AMI, instalar nuevo software y cambiar los tipos de instancia.

Estas características adicionales están disponible a través del SDK de AWS o la interfaz de línea de comandos (CLI) de AWS. La compatibilidad de la consola de administración de AWS con esta característica estará disponible pronto. Amazon EC2 Auto Scaling está disponible en todas las regiones públicas de AWS y en las regiones de AWS GovCloud (EE. UU.). Para obtener más información sobre Amazon EC2 Auto Scaling, visite nuestra página del producto y la documentación. Puede utilizar la consola de Amazon EventBridge, la AWS CLI o el SDK de AWS para comenzar a consumir eventos de EC2 Auto Scaling EventBridge. Para obtener más información sobre el uso de EventBridge para implementar notificaciones de eventos de actualización de instancias de EC2 Auto Scaling, revise la documentación.

CloudWatch Synthetics ahora es compatible con el monitoreo visual, lo que le permite detectar defectos visuales en la experiencia del usuario final de su aplicación web. CloudWatch Synthetics admite el monitoreo de sus API REST, URL y contenido del sitio web mediante la ejecución de scripts 24 horas al día, 7 días a la semana. La nueva característica de monitoreo visual hace posible detectar defectos visuales que no se pueden codificar.

Los valores controlados son scripts ligeros y modulares que se pueden configurar para que se ejecuten según una programación para monitorear los puntos de enlace y las API desde la parte externa hacia adentro. Los valores controlados simulan las mismas acciones que un usuario, lo que hace posible que pueda monitorear la experiencia del usuario de forma continua. La nueva capacidad de monitoreo visual compara las capturas de pantalla tomadas durante una ejecución canary con una base de referencia para detectar una discrepancia visual. Puede ver las diferencias y recibir una alerta si la discrepancia supera un umbral predeterminado. Puede habilitar la característica de monitoreo visual en sus valores controlados Node.js existentes o nuevos. También puede agregar límites para excluir los cambios previstos. La característica de monitoreo visual cuenta con la tecnología del conjunto de herramientas de software de código abierto ImageMagick.

Esta característica está disponible en todas las regiones en las que CloudWatch Synthetics está disponible, excepto en las regiones de China.

Para obtener más información acerca de esta característica, consulte la documentación de CloudWatch Synthetics. Para conocer los precios, consulte los precios de Amazon CloudWatch.

Las organizaciones aún necesitan opciones que permitan a los usuarios trabajar rápidamente desde cualquier ubicación y cualquier ordenador sin perder la seguridad y la productividad. Para optimizar las implementaciones de Amazon WorkSpaces mediante WorkSpaces Streaming Protocol (WSP) sin tener que instalar una aplicación cliente nativa, los usuarios ahora pueden obtener acceso a Amazon WorkSpaces desde navegadores web compatibles en ordenadores Windows, macOS o Linux.

La nueva experiencia de acceso web de Amazon WorkSpaces se basa en WorkSpaces Streaming Protocol (WSP), un protocolo de streaming nativo en la nube que habilita una experiencia de usuario consistente cuando estos acceden a WorkSpaces desde distancias globales y redes poco confiables. El acceso web con WSP permite que los usuarios mantengan la productividad al conectarse desde ordenadores en los que la experiencia de un navegador web puede ser óptima, por ejemplo, en dispositivos de propiedad personal o bloqueados en los que la instalación y el mantenimiento de una aplicación cliente pueden ser difíciles.

Puede comenzar a utilizar WSP al seleccionar WSP en el menú desplegable de protocolos y elegir un paquete de Windows 10 Value, Standard, Performance, Power o PowerPro al crear un WorkSpace. Para obtener más información, visite la Guía de administración de Amazon WorkSpaces para habilitar y configurar el acceso web de Amazon WorkSpaces.

Gracias a este lanzamiento, el acceso web de Amazon WorkSpaces con WSP está disponible de forma general en las regiones de AWS en las que WorkSpaces está disponible actualmente, salvo las regiones de Asia-Pacífico (Mumbai) y GovCloud (EE. UU. Oeste).

Amazon EC2 Auto Scaling le permite ahora controlar qué instancias terminar durante un evento de escalado vertical, puesto que le brinda la posibilidad de incorporar una función personalizada que selecciona qué instancias terminar. Antes, podía utilizar una de las políticas de terminación predefinidas para determinar qué instancias de Auto Scaling terminar. (Por ejemplo, la política de terminación OldestLaunchTemplate, terminaba instancias por orden de antigüedad de plantilla de lanzamiento, comenzando por las más antiguas). Ahora, puede proporcionar una función Lambda personalizada que indica qué instancias pueden terminarse con seguridad durante una reducción horizontal. Esta característica es útil para aplicaciones con estado en las que quiere controlar qué instancias de Auto Scaling terminar, de modo que su aplicación no se vea interrumpida durante una reducción horizontal.

Para utilizar esta característica, debe crear una función Lambda que elegirá qué instancias de Auto Scaling deben terminar de una lista de instancias elegibles. Durante un evento de reducción horizontal, Auto Scaling llamará a la función Lambda, y brindará una lista de instancias elegibles para la terminación en base a su configuración del grupo de Auto Scaling. Auto Scaling solo terminará las instancias que su función Lambda indica que pueden terminarse de forma segura.

Esta característica está disponible a través de los SDK de AWS y la interfaz de línea de comandos (CLI) de AWS. La compatibilidad de la consola de administración de AWS con esta característica estará disponible pronto. Amazon EC2 Auto Scaling está disponible en todas las regiones de AWS públicas y en regiones de AWS GovCloud (EE. UU.). Para obtener más información sobre esta característica, visite esta documentación de AWS.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...
Subscribe to this RSS feed

CONTACTE CON CLOUDAWS: PARTNER AWS

Teléfono:

902 727 350

Web:

Formulario de contacto

Email:

javier.root@cloudaws.es