+34 902.727.350  info@cloudaws.es  Intranet clientes

Novedades: Amazon AWS enero

 

Amazon OpenSearch sin servidor, que ya está disponible para el público en general, es una nueva opción sin servidor para Amazon OpenSearch Service. OpenSearch sin servidor simplifica el proceso para ejecutar cargas de trabajo de análisis y búsqueda a escala de petabytes sin tener que configurar, administrar o escalar clústeres de OpenSearch. OpenSearch sin servidor aprovisiona y escala automáticamente los recursos subyacentes para ofrecer ingesta de datos y respuestas a consultas de alta velocidad para las cargas de trabajo más exigentes e impredecibles. Con OpenSearch sin servidor, solo paga por los recursos consumidos.

OpenSearch sin servidor desacopla la computación y el almacenamiento. También separa los componentes de indexación (ingesta) de los componentes de búsqueda (consulta), con Amazon Simple Storage Service (Amazon S3) como almacenamiento de datos principal para los índices. Con esta arquitectura desacoplada, OpenSearch sin servidor puede escalar las funciones de búsqueda e indexación independientemente unas de otras y de los datos indexados en Amazon S3.

OpenSearch sin servidor, que anteriormente estaba disponible en versión preliminar, presenta una serie de mejoras, incluida la compatibilidad escalable y la disponibilidad en tres regiones adicionales. OpenSearch sin servidor ya está disponible en ocho regiones de AWS de todo el mundo: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Europa (Fráncfort) y Europa (Irlanda).

Para comenzar, consulte los siguientes recursos:

AWS anuncia la disponibilidad general de los bloques de enrutamiento entre dominios sin clases (CIDR) contiguos de IPv6 proporcionados por Amazon con el administrador de direcciones IP (IPAM) de Amazon VPC. Dentro del IPAM, los clientes pueden crear grupos de IPv6 de ámbito público y aprovisionar con bloques de CIDR de BYOIP. Ahora, los clientes pueden aprovisionar bloques de CIDR de IPv6 proporcionados por Amazon con un tamaño de /52 a /40 en grupos separados para asociarlos a nubes virtuales privadas (VPC). Los bloques de CIDR contiguos se pueden utilizar para la creación secuencial de VPC. Luego, los CIDR se pueden agregar en una única entrada a través de componentes de redes y seguridad, como listas de control de acceso, tablas de enrutamiento, grupos de seguridad y firewalls.  

Antes de hoy, los clientes podían utilizar las direcciones IP propias (BYOIP) para tener VPC secuenciales. Esto significa que puede comprar un rango de IP en su registro regional de Internet (RIR) y AWS validará la propiedad antes de utilizar el CIDR. Como alternativa, los clientes pueden crear una VPC directamente con un bloque de CIDR de IPv6 proporcionado por Amazon. En este caso, el CIDR no es secuencial con ningún CIDR existente de cliente, sino que es efímero, ya que existe en la cuenta del cliente durante toda la vida de la VPC. Gracias a los bloques de CIDR de IPv6 contiguos proporcionados por Amazon, los administradores de red pueden aprovisionar un bloque de CIDR de IPv6 con solo unos clics. Luego, pueden planificar, segmentar y asignar el espacio IP en función de diferentes casos de uso, como aplicaciones, equipos o entornos. Ahora, los clientes conservarán estos bloques de CIDR más allá de la vida útil de la VPC. Los bloques de CIDR de IPv6 proporcionados por Amazon están disponibles en un tamaño predeterminado de /52, que admite el direccionamiento de hasta 16 VPC. Los clientes pueden recibir asignaciones de bloques de CIDR adicionales y mayores si lo solicitan.  

Los bloques de CIDR de IPv6 contiguos proporcionados por Amazon ya están disponible en las regiones de África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Canadá (centro), Europa (Dublín), Europa (Fráncfort), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Oriente Medio (Baréin), América del Sur (São Paulo), Oeste de EE. UU. (Norte de California), Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), AWS GovCloud (este de EE. UU.) y AWS GovCloud (oeste de EE. UU.). Se ofrece sin costo adicional. Para obtener más información y empezar, consulte la página de preguntas frecuentes de VPC y la documentación del IPAM de VPC más reciente.

Amazon Aurora ahora admite Aurora MySQL 3 (compatible con MySQL 8.0) como clúster de origen o entorno azul dentro de los despliegues azul-verde de Amazon RDS. Esto le permite utilizar despliegues azul-verde para actualizaciones menores de la versión de Aurora MySQL 3 (compatible con MySQL 8.0).

Los despliegues azul-verde le ayudan a realizar actualizaciones más seguras, sencillas y rápidas de sus bases de datos de Amazon Aurora y Amazon RDS. Los despliegues azul-verde crean un entorno de ensayo completamente administrado para desplegar y probar los cambios de producción, de modo que la base de datos de producción existente se mantiene segura. Con tan solo un clic, puede promover el entorno de ensayo para que sea el nuevo sistema de producción en apenas un minuto, sin realizar cambios en la aplicación ni perder datos. 

Los despliegues azul-verde de Amazon RDS están disponibles para todas las versiones de Amazon Aurora con MySQL, Amazon RDS para MySQL 5.7 y versiones posteriores y Amazon RDS para MariaDB 10.2 y versiones posteriores en todas las regiones de AWS, incluidas las regiones de AWS GovCloud (EE. UU.). Actualice sus bases de datos con unos pocos clics utilizando los despliegues azul-verde de Amazon RDS a través de la consola de Amazon RDS. Obtenga más información sobre los despliegues azul-verde en la página de características de Amazon RDS y en el blog de novedades de AWS.

Amazon Aurora se diseñó para ofrecer un rendimiento alto y una disponibilidad sin precedentes a escala global con compatibilidad total con MySQL y PostgreSQL. Ofrece seguridad integrada, respaldos continuos, cómputo sin servidor, hasta 15 réplicas de lectura, replicación automatizada en varias regiones e integraciones con otros servicios de AWS. Para comenzar a utilizar Amazon Aurora, consulte la página de introducción.

Amazon Relational Database Service (Amazon RDS) para PostgreSQL ahora admite la replicación entrante desde instancias de bases de datos (DB) de Amazon RDS Single-AZ e instancias de base de datos Multi-AZ de Amazon RDS, con una implementación en espera para las implementaciones de Amazon RDS Multi-AZ con dos dispositivos en espera legibles. Puede utilizar esta replicación entrante para ayudar a migrar sus implementaciones actuales de Amazon RDS para PostgreSQL en cuestión de minutos a implementaciones de Amazon RDS Multi-AZ con dos dispositivos en espera legibles, que tienen una instancia de escritura y dos instancias en espera legibles en tres zonas de disponibilidad. Al crear una implementación Multi-AZ con dos dispositivos de espera legibles como réplica de lectura de su instancia de base de datos PostgreSQL de RDS existente, puede convertir la réplica de lectura en su nueva instancia principal, normalmente en cuestión de minutos. 

Las implementaciones de Amazon RDS Multi-AZ ofrecen una mejora de la disponibilidad y la durabilidad, lo que las convierte en la opción ideal para las cargas de trabajo de bases de datos de producción. La implementación de Amazon RDS Multi-AZ con dos instancias en espera legibles admite latencias de confirmación de transacciones hasta dos veces más rápidas que una implementación Multi-AZ con una instancia de espera. En esta configuración, las conmutaciones por error automatizadas suelen tardar menos de 35 segundos. Además, las dos instancias en espera legibles también tienen la capacidad de procesar el tráfico de lectura sin necesidad de adjuntar instancias de réplica de lectura adicionales. 

Para obtener una lista completa de la disponibilidad regional de Amazon RDS Multi-AZ con dos instancias en espera legibles y las versiones de motores compatibles, consulte la Guía del usuario de Amazon RDS.

Obtenga más información acerca de las implementaciones de Amazon RDS Multi-AZ en la Guía del usuario de Amazon RDS y en el blog de novedades de AWS. Cree o actualice una base de datos completamente administrada de Amazon RDS Multi-AZ con dos instancias en espera legibles en la consola de administración de Amazon RDS.

Amazon Relational Database Service (Amazon RDS) para MariaDB admite conexiones SSL/TLS cifradas a las instancias de bases de datos. A partir de hoy, puedes aplicar las conexiones SSL/TLS del cliente con tu instancia de base de datos Amazon RDS for MariaDB a fin de mejorar la seguridad de la capa de transporte. Para aplicar las conexiones SSL/TLS, debes habilitar el parámetro require_secure_transport (que por defecto está deshabilitado) mediante la consola de administración de Amazon RDS o mediante la API o la CLI de AWS. Cuando se habilita el parámetro require_secure_transport, el cliente de base de datos solo se podrá conectar a la instancia de RDS para MariaDB si es capaz de establecer una conexión cifrada. 

El parámetro require_secure_transport es compatible con RDS para las versiones 10.5 y superiores de MariaDB. Para obtener más información sobre cómo establecer conexiones de cliente cifradas mediante el parámetro require_secure_transport, consulta la Guía del usuario de Amazon RDS.

Amazon RDS para MariaDB facilita las tareas de configuración, utilización y escalado de implementaciones de MariaDB en la nube. Obtenga más información acerca de los precios y la disponibilidad regional en Amazon RDS para MariaDB. Cree o actualice una base de datos completamente administrada de Amazon RDS en la consola de administración de Amazon RDS.

Amazon OpenSearch Service ahora te permite validar los cambios de configuración antes de aplicarlos a tus clústeres. Con la opción de ejecución sin pruebas mejorada, Amazon OpenSearch Service comprueba los errores de validación que puedan producirse al implementar los cambios de configuración y proporciona un resumen de estos errores, si los hubiera. La función de ejecución en seco también indicará si será necesaria una implementación azul o verde para aplicar un cambio, de modo que puedas planificar estos cambios en consecuencia. 

Anteriormente, cuando enviabas un cambio de configuración, el estado del dominio cambiaba a Procesando y los errores de validación identificados al aplicar los cambios se mostraban posteriormente para tu acción, mientras el dominio seguía en estado de procesamiento, lo que impedía que se hicieran nuevos cambios en el clúster hasta que tomaras medidas correctivas. Sin embargo, con el nuevo simulacro mejorado, puedes comprobar si hay posibles errores de validación antes de aplicar un cambio a tus clústeres y tomar las medidas correctivas necesarias.

Puedes utilizar la función de ejecución sin pruebas al aplicar un cambio de configuración mediante la consola de OpenSearch Service o utilizar el nuevo parámetro “dryRun” con “verbose” al llamar a una API UpdateDomainConfig. 

La ejecución sin pruebas mejorada para los cambios de configuración ya está disponible en todas las regiones de AWS en las que está disponible Amazon OpenSearch Service. Para obtener más información acerca de la disponibilidad de Amazon OpenSearch Service, consulta la Tabla de regiones de AWS.

Para obtener más información sobre esta característica, consulta la documentación. Para obtener más información acerca de Amazon OpenSearch Service, visite la página del producto.

Ahora, los clientes pueden usar el generador de imágenes de EC2 para crear imágenes de máquina de Amazon (AMI) personalizadas que se refuerzan mediante los puntos de referencia del Centro de seguridad en Internet (CIS). El generador de imágenes de EC2 aloja los puntos de referencia del CIS de nivel 1 para Amazon Linux 2, Red Hat Enterprise Linux (RHEL) 7, Microsoft Windows Server 2019 y Microsoft Windows Server 2022. Ya no tendrá que gestionar sus propios scripts personalizados para el refuerzo de imágenes de nivel 1 del CIS con estos sistemas operativos. Con esta característica, también puede optar por actualizar automáticamente las AMI a la versión más reciente de los estándares del CIS a medida que estén disponibles.

Para aumentar la seguridad, basta con suscribirse a la AMI del CIS requerida en AWS Marketplace desde la consola del generador de imágenes de EC2 y utilizarla como AMI base para el proceso de personalización de imágenes. Su suscripción a la AMI de AWS Marketplace para la AMI de CIS desbloqueará el acceso a los componentes de refuerzo del CIS en el generador de imágenes de EC2. Puede utilizar estos componentes para reforzar la seguridad de sus AMI para cumplir con los puntos de referencia del CIS recomendados y puede ver los registros de compilación de CloudWatch del proceso de refuerzo en el generador de imágenes de EC2.

Esta característica está disponible en todas las regiones de AWS, incluidas las regiones de AWS GovCloud (EE. UU.), pero excluidas las regiones de AWS China (Pekín, operada por Sinnet) y AWS China (Ningxia, operada por NWCD). Comience a utilizar esta característica desde la consola del generador de imágenes de EC2, la CLI, la API, Cloud Formation o CDK. Puede obtener más información en la documentación del generador de imágenes de EC2. Puede encontrar información específica sobre el CIS y las funciones de conformidad en el generador de imágenes de EC2 en la página de documentación de las características. Además, puede obtener más información acerca de las próximas características del generador de imágenes de EC2 en el plan de desarrollo público.

Amazon Relational Database Service (Amazon RDS) para MariaDB ahora admite las lecturas optimizadas de Amazon RDS para un procesamiento de consultas hasta dos veces más rápido en comparación con las instancias de generaciones anteriores. Las instancias con lecturas optimizadas habilitadas logran un procesamiento de consultas más rápido al colocar las tablas temporales generadas por el servidor de MariaDB en el almacenamiento de instancias de nivel de bloque basado en SSD NVMe, que está conectado físicamente con el servidor host. Las consultas complejas que utilizan tablas temporales, como las consultas que involucran clasificaciones, agregaciones de hash, uniones de alta carga y expresiones de tabla comunes (CTE) ahora pueden ejecutarse hasta dos veces más rápido con las lecturas optimizadas en RDS para MariaDB.

Las lecturas optimizadas están disponibles de forma predeterminada en las versiones 10.4.25, 10.5.16, 10.6.7 y superiores de RDS para MariaDB en instancias X2iedn, M5d y R5d basadas en Intel y en instancias de bases de datos (DB) M6gd y R6gd basadas en AWS Graviton2. Las instancias de DB R5d y M5d proporcionan hasta 3600 GiB de almacenamiento de instancias basado en SSD NVMe para ofrecer alto rendimiento de baja latencia de E/S aleatorias y de lectura secuencial. Las instancias de DB X2iedn, M6gd y R6gd están creadas en AWS Nitro System y proporcionan hasta 3800 GiB de almacenamiento SSD basado en NVMe y hasta 100 Gbps de ancho de banda de la red. 

Las lecturas optimizadas para Amazon RDS para MariaDB están disponibles hoy en las instancias M5d, R5d, M6gd, R6gd y X2iedn, en las mismas regiones de AWS en las que estas instancias están disponibles. Para obtener toda la información acerca de los precios y la disponibilidad regional, consulte la página de precios de Amazon RDS para MariaDB.

Para obtener más información sobre la característica de lecturas optimizadas de Amazon RDS para MariaDB, consulte la Guía del usuario de Amazon RDS para MariaDB. Puede lanzar una nueva carga de trabajo de lecturas optimizadas con RDS para MariaDB en la consola de administración de Amazon RDS o mediante la CLI de AWS

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS diciembre

A partir de hoy, las instancias Is4gen e Im4gn de Amazon EC2, las instancias optimizadas para almacenamiento de última generación, están disponibles en la región de Europa (París). Las instancias Im4gn y Is4gen se basan en AWS Nitro System y cuentan con la tecnología de procesadores AWS Graviton2. Se crean con los AWS Nitro SSD que reducen tanto la latencia como la variabilidad de la latencia en comparación con la 3.° generación de EC2 de instancias optimizadas para el almacenamiento. 

Las instancias Im4gn están optimizadas para aplicaciones que requieren un rendimiento informático como bases de datos MySQL y NoSQL, y sistemas de archivos. Las instancias Is4gen brindan un almacenamiento SSD denso por CPU virtual para las aplicaciones que requieren un alto acceso de E/S aleatorio de alto rendimiento para grandes cantidades de datos en SSD locales, por ejemplo, para procesamiento de transmisiones y monitoreo, bases de datos en tiempo real y análisis de registros.

Estas instancias pueden utilizar AWS Elastic Fabric Adapter (EFA) y aprovechar la nube privada virtual (VPC) de Amazon para seguridad y confiabilidad.

Para comenzar a utilizar las instancias Is4gen e Im4gn, consulte la consola de administración de AWS, la interfaz de la línea de comandos (CLI) de AWS o los SDK de AWS. Para obtener más información, visite la página de las instancias Is4gen e Im4gn.

La detección y el procesamiento de la información confidencial en AWS Glue ahora está disponible de manera general en 18 regiones de AWS adicionales: Oeste de EE. UU. (Norte de California), África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (centro), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Oriente Medio (Baréin) y América del Sur (São Paulo).

Esta característica utiliza coincidencia de patrones y machine learning para detectar de manera automática la Personal Identifiable Information (PII, información que permite la identificación personal) y otros datos confidenciales, tanto en las columnas como en las celdas, durante la ejecución de un trabajo de AWS Glue. AWS Glue incluye opciones para registrar el tipo de PII y su ubicación, así como para tomar medidas al respecto.

La detección de información confidencial en AWS Glue identifica una variedad de PII y otra información confidencial, como números de tarjetas de crédito. Ayuda a los clientes a tomar medidas, tales como realizar un seguimiento con fines de auditoría o redactar la información confidencial antes de registrarla en un lago de datos. La interfaz visual y sin código de AWS Glue Studio permite a los usuarios incluir la detección de información confidencial como un paso en un trabajo de integración de datos. Permite a los clientes elegir el tipo de información personal a detectar, así como especificar acciones de seguimiento incluida la redacción y el registro. Además, los clientes pueden definir sus propios patrones de detección personalizados para satisfacer necesidades específicas.

Esta característica ahora está disponible en un total de 21 regiones de AWS: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (centro), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Oriente Medio (Baréin) y América del Sur (São Paulo).

Para obtener más información, consulte la documentación.

Amazon Comprehend anunció la API de un solo paso que los clientes ahora pueden usar para clasificar y extraer entidades de interés de documentos PDF, archivos de Microsoft Word e imágenes.

Amazon Comprehend es un servicio de procesamiento de lenguaje natural (NLP) que proporciona API preentrenadas y personalizadas para obtener información a partir de datos en formato de texto. La nueva capacidad simplifica el procesamiento de documentos al agregar compatibilidad con muchos tipos de documentos comunes (como archivos PDF, de Microsoft Word e imágenes) en la API de extracción de entidades personalizadas y clasificación personalizada. Anteriormente, para procesar documentos semiestructurados, los clientes debían extraer texto llamando a varias API mediante el reconocimiento óptico de caracteres (OCR) o utilizando otras técnicas de preprocesamiento, y luego realizar NLP. Ahora, con una sola llamada a la API, los clientes pueden procesar documentos semiestructurados escaneados o digitales (como PDF, documentos de Microsoft Word e imágenes en su formato original) y documentos de texto sin formato. Al combinar las tecnologías de NLP y OCR, pueden obtener mejores resultados y eliminar la sobrecarga de preprocesamiento. Los clientes pueden usar la nueva capacidad para simplificar el procesamiento de documentos durante el procesamiento por lotes o casos de uso en tiempo real.

El cliente puede procesar documentos en idioma inglés para el reconocimiento de entidades contextuales y en los idiomas alemán (de), inglés (en), español (es), francés (fr), italiano (it) y portugués (pt) para la clasificación de documentos. Estas capacidades están disponibles en todas las regiones de AWS donde se ofrece Amazon Comprehend. Para obtener más información y comenzar, visite la página de procesamiento inteligente de documentos de Amazon Comprehend, el blog de novedades de AWS y nuestra documentación.

AWS Application Composer ayuda a los desarrolladores a simplificar y acelerar el desarrollo de la arquitectura, la configuración y la creación de aplicaciones sin servidor. Puede arrastrar, soltar y conectar servicios de AWS en una arquitectura de aplicaciones mediante el lienzo visual basado en navegador de AWS Application Composer. AWS Application Composer lo ayuda a concentrarse en la creación al mantener las definiciones de infraestructura como código (IaC) listas para la implementación, que se completan con la configuración de integración para cada servicio.

Los desarrolladores nuevos en la creación de aplicaciones sin servidor pueden enfrentarse a una curva de aprendizaje pronunciada al crear aplicaciones a partir de varios servicios de AWS. Necesitan entender cómo configurar cada servicio y luego aprender y escribir la IaC para implementar su aplicación. Al realizar cambios en una aplicación existente, a los desarrolladores les puede resultar difícil comunicar los cambios de arquitectura a sus equipos mediante la lectura de actualizaciones en archivos de definición de una IaC de gran tamaño. Con AWS Application Composer, puede comenzar una nueva arquitectura desde cero o puede importar una plantilla existente de AWS CloudFormation o el modelo de aplicaciones sin servidor (SAM) de AWS. Puede agregar y conectar servicios de AWS, y AWS Application Composer ayuda a generar proyectos listos para la implementación, como definiciones de IaC y andamiaje de códigos de función de AWS Lambda. AWS Application Composer luego mantiene la representación visual de la arquitectura de su aplicación sincronizada con su IaC, en tiempo real. 

AWS Application Composer está disponible sin cargo adicional en las siguientes regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Tokio), Europa (Fráncfort) y Europa (Irlanda). Para comenzar a usar AWS Application Composer, visite la página del producto. Si quiere obtener más información, consulte nuestra publicación en el blog de lanzamiento.

Amazon GuardDuty ahora ofrece detección de amenazas para Amazon Aurora, lo que ayuda a identificar posibles amenazas a los datos almacenados en las bases de datos de Aurora. Protección de RDS de Amazon GuardDuty perfila y monitorea la actividad de acceso a las bases de datos existentes y nuevas en su cuenta, y utiliza modelos de machine learning personalizados para detectar con precisión los inicios de sesión sospechosos en las bases de datos de Aurora. Una vez que se detecta una amenaza potencial, GuardDuty genera un hallazgo de seguridad que incluye detalles de la base de datos e información contextual completa sobre la actividad sospechosa. GuardDuty se integra con Aurora para acceder directamente a los eventos de la base de datos sin que sea necesario que usted tenga que modificarlas, y está diseñado para no afectar el rendimiento de las bases de datos.

Puede habilitar la característica Protección de RDS de Amazon GuardDuty con solo hacer un clic en la consola de GuardDuty. Al utilizar AWS Organizations para la administración de varias cuentas, Amazon GuardDuty facilita que los equipos de seguridad activen y administren la característica Protección de RDS de Amazon GuardDuty en todas las cuentas de una organización. Una vez habilitada esta característica, comienza a analizar y perfilar el acceso a las bases de datos de Aurora. Cuando se identifican comportamientos sospechosos o intentos de actores malintencionados conocidos, GuardDuty emite hallazgos de seguridad que requiere acción en la consola de GuardDuty, AWS Security HubAmazon Detective y Amazon EventBridge. Esto permite la integración con la administración de eventos de seguridad o los sistemas de flujo de trabajo existentes.

Durante el período de versión preliminar, Protección de RDS de Amazon GuardDuty está disponible para clientes en cinco regiones de AWS: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Asia-Pacífico (Tokio) y Europa (Irlanda). Además, en el período de versión preliminar, Protección de RDS de Amazon GuardDuty está disponible para los clientes sin costo adicional. Si aún no utiliza Amazon GuardDuty, puede habilitar la prueba gratuita de 30 días con un solo clic en la consola de administración de AWS. Si quiere obtener más información, consulte Hallazgos de Amazon GuardDuty. Si quiere recibir actualizaciones programáticas sobre nuevas características y detecciones de amenazas de Amazon GuardDuty, suscríbase al tema de SNS de Amazon GuardDuty.

Amazon Aurora se diseñó para ofrecer rendimiento y disponibilidad altos y a escala global con compatibilidad total con MySQL y PostgreSQL. Ofrece seguridad integrada, respaldos continuos, computación sin servidor, hasta 15 réplicas de lectura, replicación automatizada en varias regiones e integraciones con otros servicios de AWS. Para comenzar a utilizar Amazon Aurora, consulte nuestra página de introducción.

Nos complace anunciar las Tarjetas de servicio de IA de AWS, un nuevo recurso para aumentar la transparencia y ayudar a los clientes a comprender mejor nuestros servicios de IA de AWS, incluido cómo usarlos de manera responsable. Las tarjetas de servicio de IA son una forma de documentación de IA responsable que brinda a los clientes un lugar único para encontrar información sobre los casos de uso previstos y las limitaciones, las opciones de diseño de IA responsable y las prácticas recomendadas de implementación y operación para nuestros servicios con esta tecnología. Son parte de un proceso de desarrollo integral que llevamos a cabo para crear servicios de manera responsable, teniendo en cuenta la equidad y el sesgo, la solidez, la explicabilidad, la gobernanza, la transparencia, la privacidad y la seguridad.

Hoy estamos lanzando tres tarjetas de servicio de inteligencia artificial (IA): Amazon Rekognition — Face Matching, Amazon Textract — AnalyzeID y Amazon Transcribe — Batch (inglés de EE. UU.). Nuestras tarjetas de servicio de IA seguirán evolucionando y expandiéndose a medida que interactuamos con nuestros clientes y la comunidad en general para recopilar comentarios y iterar continuamente nuestro enfoque.

Puede obtener más información sobre las tarjetas de servicio de IA, así como sobre nuestro enfoque más amplio para crear IA y machine learning (ML) de manera responsable, en la página web. Para obtener más información, consulte las tarjetas de servicio de IA para Amazon Rekognition: — Face Matching, Amazon Textract — AnalyzeID y Amazon Transcribe — Batch (inglés de EE. UU.).

Los puntos de acceso de Amazon S3 simplifican el acceso a los datos para cualquier servicio de AWS o aplicación del cliente que almacene datos en los buckets de S3. Con los puntos de acceso de S3, puede crear políticas de control de acceso únicas de cada punto de acceso para controlar con más facilidad el acceso a los conjuntos de datos compartidos. Ahora, los propietarios de buckets pueden autorizar el acceso a través de puntos de acceso creados en otras cuentas. De este modo, los propietarios de los buckets siempre conservan el control final sobre el acceso a los datos, pero pueden delegar la responsabilidad de las decisiones de control de acceso más específicas basadas en IAM al propietario del punto de acceso. Esto le permite compartir de forma segura y sencilla conjuntos de datos con miles de aplicaciones y usuarios, sin costo adicional.

Los puntos de acceso de S3 lo ayudan a configurar más fácilmente los controles de acceso adecuados para los conjuntos de datos compartidos, lo que simplifica la administración del acceso para varias aplicaciones. Cada punto de acceso cuenta con su propia política que define a qué solicitudes y VPC se les permite utilizar el punto de acceso, personalizado para cada aplicación o caso de uso. Con los puntos de acceso entre cuentas, puede permitir que las cuentas de confianza, como el administrador de cuentas de un equipo diferente o de una organización asociada, se autogestionen permisos para los conjuntos de datos. Además, no tiene que realizar cambios continuos en una política de buckets por cada cambio de permiso para las aplicaciones o funciones dentro de estas cuentas de confianza. 

Los puntos de acceso entre cuentas están disponibles en todas las regiones comerciales de AWS y las regiones GovCloud (EE. UU.) de AWS a través de la interfaz de línea de comando (CLI) de AWS y las SKD de AWS. Para obtener más información sobre los puntos de acceso de S3, consulte la documentación, la página de productos del punto de acceso y las preguntas frecuentes de S3.

Amazon DocumentDB (con compatibilidad con MongoDB) presenta la disponibilidad general de los clústeres elásticos de Amazon DocumentDB, un nuevo tipo de clúster que le permite escalar de manera elástica su base de datos de documentos para manejar millones de lecturas y escrituras por segundo con petabytes de almacenamiento.

Con los clústeres elásticos de Amazon DocumentDB, puede aprovechar la API Sharding (fragmentación) de MongoDB para crear colecciones escalables que pueden tener un tamaño de petabytes. Puede comenzar con los clústeres elásticos de Amazon DocumentDB para sus aplicaciones simples y escalar sus clústeres para manejar millones de lecturas y escrituras por segundo y PB de capacidad de almacenamiento a medida que sus aplicaciones se vuelven más complejas. Escalar los clústeres elásticos de Amazon DocumentDB es tan simple como cambiar la cantidad de fragmentos de clúster en la consola y el resto lo maneja el servicio de Amazon DocumentDB. La velocidad puede reducirse de horas a minutos en comparación con el escalado manual. También puede desescalar verticalmente para ahorrar costos en cualquier momento. 

Los clústeres elásticos de Amazon DocumentDB ofrecen muchas de las mismas capacidades de administración que los clústeres basados ​​en instancias de Amazon DocumentDB, incluida la compatibilidad con multi-AZ, la integración de AWS CloudWatch, la aplicación de parches automatizada y las copias de seguridad de instantáneas. Puede seguir utilizando las herramientas y los controladores de aplicaciones existentes de MongoDB para trabajar con los clústeres elásticos de Amazon DocumentDB. Además de las consultas simples, también puede aprovechar las útiles canalizaciones de agregación en los clústeres elásticos de Amazon DocumentDB para filtrar, agrupar, procesar y clasificar datos en fragmentos.

Para obtener más información, lea la documentación y comience a crear los clústeres elásticos de Amazon DocumentDB siguiendo solo unos pocos pasos en la consola de administración de AWS. Para obtener los precios y disponibilidad por región, visite la página de precios.

Amazon OpenSearch Service ahora ofrece una nueva opción: Amazon OpenSearch sin servidor. Esta opción simplifica el proceso de ejecutar cargas de trabajo de análisis y búsqueda a escala de petabytes sin tener que configurar, administrar o escalar clústeres de OpenSearch. OpenSearch sin servidor aprovisiona y escala automáticamente los recursos subyacentes para ofrecer ingesta de datos y respuestas a consultas de alta velocidad para las cargas de trabajo más exigentes e impredecibles. Con OpenSearch sin servidor, solo paga por los recursos consumidos.

OpenSearch sin servidor desacopla el cómputo y el almacenamiento, y separa los componentes de indexación (ingesta) de los componentes de búsqueda (consulta), con Amazon Simple Storage Service (Amazon S3) como almacenamiento de datos principal para los índices. Con esta arquitectura desacoplada, OpenSearch sin servidor puede escalar las funciones de búsqueda e indexación independientemente unas de otras y de los datos indexados en Amazon S3. Por ejemplo, cuando una carga de trabajo de monitoreo de aplicaciones recibe una ráfaga repentina de actividades de registro durante un evento de disponibilidad, OpenSearch sin servidor escala instantáneamente los recursos para ingerir y almacenar los datos sin afectar los tiempos de respuesta de las consultas.

Para comenzar con OpenSearch sin servidor, los desarrolladores pueden crear nuevas colecciones, una agrupación lógica de datos indexados que funcionan juntos para admitir una carga de trabajo. OpenSearch sin servidor admite las mismas API de ingesta y consulta que OpenSearch, por lo que puede comenzar en segundos con sus clientes y aplicaciones existentes, mientras crea visualizaciones de datos con los tableros de OpenSearch sin servidor.

OpenSearch sin servidor ahora está disponible en las siguientes regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Tokio) y Europa (Irlanda).

Para obtener más información, consulte la página web de Amazon OpenSearch sin servidor y la Guía para desarrolladores de Amazon OpenSearch Service.

AWS anuncia hoy el lanzamiento de la versión preliminar de Acceso verificado de AWS, un nuevo servicio que ofrece acceso seguro a aplicaciones corporativas sin una VPN. Basado en las directrices del enfoque de confianza cero de AWS, Acceso verificado le ayuda a implementar un modelo de trabajo desde cualquier lugar de forma segura y escalable.

Acceso verificado le permite habilitar rápidamente el acceso seguro a aplicaciones mediante la creación de políticas detalladas que definen las condiciones en las que un usuario puede acceder a una aplicación. El servicio evalúa cada solicitud de acceso en tiempo real y conecta al usuario con la aplicación solo si se cumplen las condiciones. Con Acceso verificado, puede definir una política de acceso única para cada aplicación que incluya condiciones basadas en datos de identidad y posición del dispositivo. Por ejemplo, puede crear políticas para que solo los miembros del equipo de finanzas accedan a la aplicación de informes financieros, y únicamente desde dispositivos compatibles. Acceso verificado utiliza las identidades de su personal a través de la integración directa con AWS IAM Identity Center y la federación directa con proveedores de identidad externos mediante OpenID Connect (OIDC). Además, Acceso verificado se integra con proveedores externos de posición de dispositivos para proporcionar un contexto de seguridad adicional. Puede encontrar la lista de socios integrados con Acceso verificado en nuestro blog de novedades de AWS.

Acceso verificado está disponible en 10 regiones de AWS en versión preliminar pública: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), Asia-Pacífico (Sídney), Canadá (centro), Europa (Irlanda), Europa (Londres), Europa (París) y América del Sur (São Paulo).

Obtenga más información en la página de detalles del producto de Acceso verificado y en la documentación. Para comenzar, visite la consola. Para obtener más información sobre los precios, visite la página de precios.

Al usar el administrador de red de AWS, ahora puede supervisar el rendimiento histórico y en tiempo real de la red global de AWS con objetivos operativos y de planificación. El administrador de red de AWS proporciona la suma de la latencia de red entre las regiones de AWS y las zonas de disponibilidad, y dentro de cada zona de disponibilidad, lo que permite entender mejor cómo el rendimiento de las aplicaciones se relaciona con el rendimiento de la red de AWS subyacente. Se puede supervisar la latencia de red en la red global de AWS en intervalos de hasta 5 minutos y también se puede ver el comportamiento histórico de los últimos 45 días desde el administrador de red de AWS. Además, también pueden publicar estas métricas de latencia en Amazon CloudWatch para supervisarlas, analizarlas y notificarlas.

Para comenzar, navegue hasta el administrador de red de AWS desde la consola de administración de AWS y seleccione las regiones de AWS o las zonas de disponibilidad para ver las latencias de red dentro o entre ellas. La vista de estas métricas en el administrador de red de AWS no tiene costo. Solo paga el costo regular de las métricas de Amazon CloudWatch si publica las métricas en Amazon CloudWatch. Para obtener más información, consulte la documentación.

Puede ver y supervisar el rendimiento de la red global de AWS en el administrador de red de AWS en las siguientes regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), África (Ciudad del Cabo), Asia-Pacífico (Yakarta), Asia-Pacífico (Hong Kong), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Canadá (centro), Europa (Dublín), Europa (Fráncfort), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Oriente Medio (Baréin) y América del Sur (São Paulo).

AWS presenta la disponibilidad general de Elastic Network Adapter (ENA) Express para las instancias de Amazon Elastic Compute Cloud (EC2). Todas las instancias de EC2 de la generación actual utilizan ENA, una interfaz de red personalizada, para ofrecer una mejor experiencia de redes. ENA Express es una nueva característica de ENA que utiliza el protocolo Scalable Reliable Datagram (SRD) de AWS para mejorar el rendimiento de la red de dos formas clave: mayor ancho de banda de un solo flujo y menor latencia de cola para el tráfico de red entre las instancias de EC2.

Las cargas de trabajo, como los sistemas de almacenamiento distribuidos y la codificación de contenido multimedia en directo, requieren grandes flujos y son sensibles a la varianza en la latencia. Hasta hoy, los clientes podían utilizar el Transmission Control Protocol (TCP, protocolo de control de transmisión) de múltiples rutas para aumentar el ancho de banda, pero esto añade complejidad y, en ocasiones, pueden ser incompatibles con la capa de aplicación. El TCP tampoco está preparado para manejar la congestión cuando el servidor está sobrecargado con solicitudes. Scalable Reliable Datagram (SRD) es un protocolo propietario que brinda estas mejoras a través del control avanzado de la congestión, las múltiples rutas y el reordenamiento de paquetes directamente desde la tarjeta Nitro. La activación de ENA Express es una configuración sencilla que convierte a la activación de SRD en algo tan fácil como la alternancia de un comando o una consola para sus instancias de EC2. Mediante el uso del protocolo SRD, ENA Express aumenta el ancho de banda máximo de un solo flujo de las instancias de EC2 desde 5 Gbps hasta 25 Gbps y puede brindar una mejora de hasta el 85 % en la latencia P99,9 para las cargas de trabajo de alto rendimiento. ENA Express funciona de manera transparente para sus aplicaciones con protocolos TCP y UDP. Cuando se configura, ENA Express funciona entre dos instancias admitidas cualesquiera en una zona de disponibilidad. ENA Express detecta la compatibilidad entre sus instancias de EC2 y establece una conexión de SRD cuando las dos instancias que se comunican tienen activado ENA Express. Una vez que se establece la conexión, el tráfico aprovecha el protocolo SRD y sus beneficios de rendimiento. También está disponible el monitoreo detallado para estas conexiones de SRD a través de las nuevas métricas de ethtool disponibles en la última versión de la Amazon Machine Image (AMI, imagen de máquina de Amazon) de Amazon Linux.

ENA Express ahora está disponible en todas las regiones comerciales de AWS; al principio, será compatible con la instancia C6gn.16xl y pronto se sumarán otras. ENA Express se incluye sin ningún costo adicional. Para obtener más información y comenzar, lea el blog y revise la documentación más reciente de EC2.

AWS Wickr es un servicio de comunicaciones empresariales cifrado de extremo a extremo que brinda características de seguridad avanzadas y simplifica los chats privados, la mensajería de grupos, las llamadas, la compartida de archivos y pantalla, y mucho más. El servicio ya se encuentra disponible en general. Con AWS Wickr, las empresas pueden colaborar de forma más segura con las aplicaciones de mensajería para el consumidor. Los controles administrativos y la seguridad avanzada ayudan a las empresas a cumplir con los requisitos de retención de datos y crear soluciones personalizadas para los desafíos en materia de seguridad de los datos.

Con AWS Wickr, puede retener información en un almacenamiento de datos controlado por el cliente y enfocado en la seguridad que lo ayudará a cumplir con las regulaciones específicas de la industria y satisfacer las necesidades de auditoría. AWS Wickr también brinda controles administrativos flexibles que permiten administrar los datos, entre ellos la configuración de permisos y de opciones de mensajería temporal, y la definición de grupos de seguridad. AWS Wickr se integra con servicios adicionales como Active Directory (AD), inicio de sesión único (SSO) con OpenID Connect (OIDC) y más. Puede crear y administrar rápidamente redes de AWS Wickr a través de la consola de administración de AWS. AWS Wickr también le permite automatizar sus flujos de trabajo mediante AWS Wickr Bots.

Para obtener más información y comenzar, visite la página web de AWS Wickr

AWS Config anuncia la posibilidad de verificar proactivamente el cumplimiento de las reglas de AWS Config antes del aprovisionamiento de recursos. Los clientes utilizan AWS Config para rastrear los cambios de configuración que se realizan en sus recursos en la nube y verificar si esos recursos coinciden con las configuraciones deseadas a través de una característica llamada reglas de AWS Config. El cumplimiento proactivo permite que los clientes evalúen las configuraciones de sus recursos en la nube antes de que éstos se creen o actualicen.

Por lo general, los clientes ejecutan las verificaciones de conformidad en los recursos luego de que éstos se crean o actualizan. Este lanzamiento amplía la funcionalidad de AWS Config de modo que, además de ejecutarse luego de que se aprovisionan los recursos, las reglas de AWS Config ahora se pueden ejecutar en cualquier momento antes del aprovisionamiento, lo que permite reducir el tiempo que les demanda a los clientes la corrección de recursos que no cumplen con sus políticas. Los administradores pueden utilizar la característica para crear plantillas de recursos estándar que saben que son compatibles con las reglas de AWS Config antes de compartirlas con toda la empresa. Los desarrolladores pueden incorporar las reglas de AWS Config en sus canalizaciones de CI/CD de infraestructura como código para identificar los recursos que no cumplen antes de aprovisionamiento.

Para comenzar, puede utilizar las API o consola de AWS Config para permitir que las reglas de AWS Config se ejecuten proactivamente. Luego, puede recurrir a estas reglas de AWS Config en cualquier momento antes del aprovisionamiento para conocer si las configuraciones de su recurso cumplen o no cumplen sus políticas. A través de un enlace personalizado, también puede activar las reglas de AWS Config para que se ejecuten proactivamente como parte de las implementaciones de recursos mediante AWS CloudFormation.

El cumplimiento proactivo en AWS Config está disponible en todas las regiones comerciales de AWS. Las evaluaciones de las reglas en modo proactivo están disponibles sin cargo adicional para clientes que también utilizan las reglas de AWS Config para supervisar cambios una vez que se aprovisionan los recursos. Para obtener más información sobre nuestros precios, visite la página de precios de AWS Config. Para obtener más información acerca de esta nueva característica, consulte la documentación.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS noviembre

 

La opción de implementación Multi-AZ de Amazon Relational Database Service (Amazon RDS) con una instancia de base de datos (DB) primaria y dos de reserva que se pueden leer en tres zonas de disponibilidad (AZ) ya se encuentra disponible en doce regiones adicionales. Esta opción de implementación le permite obtener una latencia de confirmación de transacciones el doble de rápida, conmutaciones por error automáticas que normalmente estén por debajo de 35 segundos e instancias en espera legibles.

Las implementaciones de Amazon RDS Multi-AZ ofrecen una mayor disponibilidad y durabilidad para las instancias de base de datos de Amazon RDS, lo que las convierte en una opción ideal para las cargas de trabajo de bases de datos de producción. Aunque todavía se utiliza el almacenamiento en red para lograr durabilidad, esta nueva opción de implementación optimiza el rendimiento de la confirmación de transacciones mediante el almacenamiento de instancias locales en las instancias de base de datos de AWS Graviton2 y x86. Esta configuración admite confirmaciones de transacciones hasta el doble de rápidas que una implementación de instancias de base de datos Multi-AZ con una instancia en espera, sin afectar la durabilidad de los datos. En esta configuración, las conmutaciones por error automatizadas suelen tardar menos de 35 segundos. Además, las instancias de base de datos en espera también tienen la capacidad de procesar el tráfico de lectura sin necesidad de adjuntar instancias de base de datos de réplica de lectura adicionales. Se puede conectar a las instancias de base de datos de reserva que se pueden leer mediante un punto de conexión administrado de solo lectura o los puntos de enlace individuales de cada una de estas. Esta opción de implementación es ideal cuando las cargas de trabajo requieren una menor latencia de escritura, conmutaciones por error automatizadas y más capacidad de lectura.

Las doce regiones que se admitirán son: África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Yakarta), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Seúl), Canadá (centro), Europa (Londres), Europa (Milán), Europa (París), Oriente Medio (Baréin), América del Sur (São Paulo). Además de las 12 regiones nuevas, la opción de implementación multi-AZ también está disponible en las regiones Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Europa (Fráncfort), Europa (Irlanda), Europa (Estocolmo). La base de datos Amazon RDS Multi-AZ con dos instancias en espera legibles es compatible con las versiones 8.0.28 de RDS para MySQL y posteriores, y con las versiones 13.4 y 13.7 de RDS para PostgreSQL. Consulte la Guía de usuario de Amazon RDS para obtener una lista completa de la disponibilidad regional y las versiones de motores compatibles.

Obtenga más información acerca de las implementaciones de Amazon RDS Multi-AZ en la Guía del usuario de Amazon RDS y en el blog de noticias de AWS. Cree o actualice una base de datos completamente administrada de Amazon RDS Multi-AZ con dos instancias en espera legibles en la consola de administración de Amazon RDS.

La detección y el procesamiento de información confidencial en AWS Glue ahora pueden detectar PII y otros datos confidenciales específicos en el Reino Unido (RU) y Japón.

La detección de información confidencial en AWS Glue identifica una variedad de información de identificación personal (PII) y otros datos confidenciales, como números de tarjetas de crédito. Ayuda a los clientes a tomar medidas, tales como realizar un seguimiento con fines de auditoría o redactar la información confidencial antes de registrarla en un lago de datos. La interfaz visual y sin código de AWS Glue Studio permite a los usuarios incluir la detección de información confidencial como un paso en un trabajo de integración de datos. Además, los clientes pueden definir sus propios patrones de detección personalizados para necesidades únicas.

Con esta característica, los clientes ahora pueden detectar números de cuentas bancarias, de licencia de conducir, de pasaporte y de otras entidades que trabajan con información confidencial del Reino Unido y Japón. Esta característica está disponible en 21 regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Mumbai), Asia-Pacífico (Osaka), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (central), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (Milán), Europa (París), Europa (Estocolmo), Oriente Medio (Baréin) y América del Sur (São Paulo).

A partir de hoy, puede eliminar su cuenta de AWS de los permisos de lanzamiento para una imagen de máquina de Amazon (AMI) que se haya compartido directamente con su cuenta de AWS. Puede aprovechar esta capacidad, por ejemplo, para reducir la probabilidad de lanzar una instancia de EC2 con una AMI obsoleta o no utilizada que se haya compartido con usted anteriormente.

Cuando elimine su cuenta de AWS de los permisos de lanzamiento de una AMI, esta ya no aparecerá en cualquier lista de AMI que se venda a su cuenta de AWS. Solo puede optar por no recibir AMI que se hayan compartido directamente con su cuenta de AWS. No puede optar por no recibir AMI que se hayan compartido con su organización o unidad organizativa (OU) de AWS, ni eliminar el acceso a AMI públicas.

Esta capacidad ahora está disponible en todas las regiones comerciales de AWS. Para obtener más información, consulte la documentación aquí.

Ahora puede utilizar los niveles de datos para Amazon MemoryDB para Redis como una manera más asequible de escalar sus clústeres hasta cientos de terabytes de capacidad. Los niveles de datos brindan una nueva opción de precio-rendimiento para MemoryDB al utilizar discos de estado sólido (SSD) de menor costo en cada nodo de clúster, además de almacenar datos en memoria. Los niveles de datos son ideales para cargas de trabajo que acceden a hasta un 20 % de sus conjuntos de datos generales de manera habitual, y para aplicaciones que puedan tolerar una latencia adicional al acceder a datos ubicados en el SSD.

Cuando se utilizan clústeres con niveles de datos, MemoryDB está diseñado para mover, de forma transparente y automática, los elementos utilizados hace más tiempo de la memoria a las SSD basadas en NVMe adjuntas localmente una vez que la capacidad de memoria disponible se haya agotado. Cuando se accede posteriormente a un elemento que se ha movido al SSD, MemoryDB lo devuelve a la memoria de manera asíncrona antes de servir la solicitud. Al asumir valores de cadena de 500 bytes, normalmente puede esperar una latencia adicional de 450 µs para solicitudes de lectura de datos almacenados en el SSD, en comparación con solicitudes de lectura de datos almacenados en la memoria.

Los niveles de datos de MemoryDB están disponibles al utilizar la versión 6.2.6 y superior de Redis en nodos R6gd basados en Graviton2. Los nodos R6gd tienen casi cinco veces más de capacidad total (memoria + SSD) y pueden ayudarlo a lograr ahorros de costo de almacenamiento en alrededor del 60 % cuando se ejecutan con un uso máximo en comparación con los nodos R6g (solo memoria).

Para comenzar a utilizar los niveles de datos de MemoryDB, cree un nuevo clúster con los tipos de nodos R6gd con la consola de administración de AWS para MemoryDB, la AWS CLI o uno de los SDK. Los niveles de datos en los nodos R6gd están disponible en las regiones de Asia-Pacífico (Bombay), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (centro), Europa (Fráncfort), Europa (Irlanda), Europa (París), Sudamérica (São Paulo), Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Norte de California) y Oeste de EE. UU. (Oregón). Para obtener información sobre precios, consulte precios de Amazon MemoryDB; para información general, eche un vistazo a la documentación de niveles de datos de MemoryDB. Si tiene alguna pregunta o solicitudes de características, puede enviarnos un correo electrónico a Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo..

A partir de hoy, las instrucciones de coincidencia geográfica de AWS WAF agrega etiquetas a cada solicitud para indicar los códigos de país y región de ISO 3166. Los clientes han pedido más control de las regiones geográficas dentro de un país, como la especificación de un estado en los Estados Unidos. Con las instrucciones de reglas de coincidencia geográfica actualizadas, los clientes pueden controlar el acceso a nivel de región. La instrucción de regla de coincidencia geográfica ahora anota automáticamente una solicitud de Texas, EE. UU. con la etiqueta awswaf:clientip:geo:region:US-TX, y una solicitud de Queensland, Australia con la etiqueta awswaf:clientip:geo:region:AU-QLD . Los clientes pueden agregar reglas de coincidencia de etiquetas para capturar etiquetas de regiones y bloquear regiones específicas, sin bloquear todo el país.

Es fácil comenzar con las instrucciones actualizadas de reglas de coincidencia geográfica. La regla de coincidencia geográfica agrega etiquetas de región geográfica y país a cada solicitud que evalúa. Esto les permite a los clientes escribir instrucciones de coincidencia de etiquetas según las regiones que quieren bloquear o permitir. Las instrucciones de reglas de coincidencia geográfica se pueden combinar con otras reglas de AWS WAF para crear políticas de filtros sofisticadas. Los clientes que quieran bloquear ciertas geografías y al mismo tiempo permitir ciertas direcciones IP de desarrolladores de esas ubicaciones pueden combinar las condiciones de coincidencia geográfica e IP para permitir el acceso solo a los usuarios autorizados. Otros clientes que quieran priorizar a los usuarios en su geografía principal para optimizar el consumo de recursos pueden combinar las condiciones de coincidencia geográfica con las reglas basadas en tarifas de AWS WAF. Estos clientes pueden establecer un límite de tarifa más alto para los usuarios finales en los países o regiones preferidos y fijar un límite de tarifa más bajo para los demás.

No se aplican cargos adicionales por su uso. Está disponible en todas las regiones de AWS donde se ofrece AWS WAF y para cada servicio compatible, incluidos Amazon CloudFront, el equilibrador de carga de aplicación, Amazon API Gateway, AWS AppSync y Amazon Cognito. Para obtener más información, consulte la Guía para desarrolladores de AWS WAF.

Hoy Amazon Simple Email Service (Amazon SES) lanzó una nueva característica, Virtual Deliverability Manager (Administrador de entrega virtual), que ayuda a los clientes a monitorear y aumentar sus tasas de éxito en la entrega de correos electrónicos. Los clientes pueden usar esta función para optimizar sus campañas de envío de correos electrónicos y la configuración de envío a fin de reducir la probabilidad de que los proveedores de buzones (como Gmail o Yahoo) marquen sus mensajes de correo electrónico como no deseados.

Virtual Deliverability Manager ofrece informes rápidos sobre el envío y la entrega de datos en una sola interfaz en la consola de SES, como la tasa de rebote, las aperturas de los mensajes y los clics. Los clientes reciben recomendaciones de optimización y pasos prácticos para mejorar las tasas de éxito de entrega de los correos electrónicos. Virtual Deliverability Manager también implementa automáticamente algunas mejoras en el envío, como la optimización de la selección de la dirección IP de envío, sin necesidad de supervisión o ajuste manual.

Virtual Deliverability Manager está disponible en todas las regiones donde está disponible Amazon SES.

Para obtener más información, consulte la documentación de Virtual Deliverability Manager en la Guía para desarrolladores de Amazon SES. Para comenzar a utilizar Virtual Deliverability Manager, visite la consola de Amazon SES.

Hoy presentamos la transferencia de IP elásticas, una nueva característica de Amazon VPC que le permite transferir sus direcciones IP elásticas de una cuenta de AWS a otra. Esto facilita el movimiento de direcciones IP elásticas durante la reestructuración de la cuenta de AWS. 

Antes, al mover aplicaciones a una nueva cuenta de AWS, les tenía que asignar nuevas direcciones IP elásticas. Esto requería que incluyera en la lista blanca las nuevas direcciones IP elásticas en sus recursos de conectividad, como enrutadores y firewalls, lo que ralentizaba las migraciones. Con la transferencia de IP elásticas, ahora puede reutilizar las mismas direcciones IP elásticas para sus aplicaciones, incluso después de moverlas a una nueva cuenta de AWS. De esta manera, se elimina la necesidad de incluir recursos de conectividad en la lista de permitidos y acelera sus migraciones.

Además, si está utilizando el Administrador de direcciones IP de Amazon VPC (IPAM), ahora puede realizar un seguimiento de sus transferencias de IP elásticas mediante este servicio.

La transferencia de IP elásticas está disponible en todas las regiones comerciales de AWS y AWS GovCloud (EE. UU.) sin costo adicional. Para obtener más información, visite la guía del usuario de la VPC.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS octubre

 

Amazon File Cache es una memoria caché de alta velocidad, escalable y completamente administrada en AWS para procesar datos de archivos almacenados en ubicaciones dispares, incluso localmente. Amazon File Cache acelera y simplifica los flujos de trabajo híbridos y de ampliación en la nube, incluidos los de multimedia y entretenimiento, servicios financieros, ciencias biológicas y de la salud, diseño de microprocesadores, fabricación, pronóstico del tiempo y energía.

Puede crear una memoria caché de archivos en AWS en solo unos minutos y vincularla a varios sistemas de archivos en la red (NFS) local, en sistemas de archivos en la nube (Amazon FSx para OpenZFS, Amazon FSx para NetApp ONTAP) y en los buckets de Amazon Simple Storage Service (Amazon S3). Los conjuntos de datos de estas diversas ubicaciones se muestran a los clientes en un único espacio de nombres unificado. Amazon File Cache está diseñado para cargar automáticamente en la memoria caché los datos que almacena localmente o en la nube cuando sus cargas de trabajo acceden a los datos por primera vez. Con Amazon File Cache, no necesita administrar el movimiento de datos ni saber de antemano qué archivos se necesitan para ejecutar su carga de trabajo. File Cache le permite comenzar a ejecutar sus cargas de trabajo sin necesidad de copiar un conjunto de datos completo. Amazon File Cache está diseñado para ofrecer una latencia consistente de submilisegundos, hasta cientos de GB/s de rendimiento y hasta millones de operaciones por segundo. Esto lo ayuda a acelerar los tiempos de finalización de la carga de trabajo y optimizar la utilización de la computación.

Amazon File Cache está disponible en las siguientes regiones de AWS: Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Este de EE. UU. (Norte de Virginia), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Canadá (centro), Europa (Fráncfort), Europa (Irlanda), Europa (Londres).

Para obtener más información acerca de Amazon File Cache, consulte la página de detalles de productos, el tutorial de introducción y la publicación en el blog de novedades de AWS.

Todos los nuevos AWS Directory Service para los directorios Microsoft AD (AWS Managed Microsoft AD) se ejecutan en Windows Server 2019. Para los clientes actuales con directorios existentes puede realizar la actualización con tan solo unos clics o mediante la programación a través de la API. Con esta características, puede iniciar las actualizaciones para los directorios existentes cuando sea más conveniente, evitando los horarios comerciales pico, por ejemplo. También, a partir de marzo de 2023, AWS comenzará con la actualización automática de los directorios AWS Managed Microsoft AD a Windows Server 2019.

Cuando inicia la actualización, AWS Managed Microsoft AD actualiza todos los controladores de dominio en forma automática y uno a la vez; incluye todas las regiones en donde se implementó el directorio. Durante la actualización el directorio está activo y disponible para sus cargas de trabajo. Puede supervisar el progreso de los directorios desde la consola de AWS y la API. En el artículo Actualización del sistema operativo de su directorio podrá consultar las instrucciones paso a paso como así también las recomendaciones para planificar la actualización del SO de su directorio.

Esta nueva característica se encuentra disponible en las mismas regiones de AWS que AWS Managed Microsoft AD. Para obtener más información, consulte la Guía de administración de AWS Directory Service.

Hoy presentamos una nueva característica que ofrece una opción para definir el comportamiento de la gestión de flujos en el equilibrador de carga de puerta de enlace de AWS. Por medio de esta opción, los clientes ahora pueden reequilibrar los flujos existentes hacia un destino en buen estado cuando falla el destino o se anula el registro. Esto contribuye a reducir el tiempo de conmutación por error cuando un destino no se encuentra en buen estado y, además, permite que los clientes implementen parches o actualicen sin problemas los dispositivos durante las ventanas de mantenimiento.

Esta característica utiliza la consola/API existente del Elastic Load Balancing (ELB) y brinda nuevos atributos para especificar el comportamiento de la gestión de flujos. Consulte la documentación sobre cómo utilizar esta función. Ya que esta característica cambia el comportamiento de los flujos, los clientes deben evaluar el efecto que implica habilitarla y deben revisar la documentación de su proveedor de dispositivos de terceros.

Los socios de dispositivos de AWS deben considerar lo siguiente: (a) los socios deben validar si el reequilibrio de los flujos existentes hacia un destino en buen estado tiene implicaciones en su dispositivo, ya que comenzará a recibir un flujo intermedio, es decir, sin recibir TCP SYN; (b) se debe actualizar la documentación pública sobre cómo esta característica afectará a su dispositivo; (c) el socio puede utilizar esta función para mejorar la gestión de flujos con estado en sus dispositivos.

Para comenzar a utilizar el equilibrador de carga de puerta de enlace de AWS, consulte la página del producto y la documentación del servicio.

Los clientes que utilizan los registros de Amazon CloudWatch ahora pueden ejecutar hasta 20 consultas simultáneas de información de registros para satisfacer sus necesidades de análisis. Al aumentar de 10 a 20 la cantidad de consultas simultáneas, los clientes pueden crear paneles con un mayor número de consultas de información de registros. Además, varios usuarios de la misma cuenta pueden ejecutar hasta 20 consultas simultáneas en la agregación.  

La información de registros de Amazon CloudWatch es un servicio de análisis de registros interactivo, completamente integrado y de pago por uso para CloudWatch. La información de registros le permite explorar, analizar y visualizar los registros para que pueda resolver problemas operativos con facilidad. La información de registros admite consultas con agregaciones, filtros y expresiones regulares para analizar los registros. Con este lanzamiento, la información de registros ahora admite una mayor simultaneidad de consultas para que los clientes puedan obtener mayor valor de las consultas de información de registros.

Con tan solo unos clics en la consola de administración de AWS, puede comenzar a utilizar la información de registros de CloudWatch para realizar consultas sobre los registros enviados a CloudWatch. Como alternativa, puede utilizar la API de información de registros de CloudWatch para la ejecución de consultas. Haga clic aquí para obtener más información sobre los precios de la información de registros de CloudWatch. Para comenzar, consulte nuestra Guía de introducción.

El controlador JDBC de AWS para PostgreSQL ya está disponible de forma general para su uso con las ediciones compatibles con Amazon RDS o Amazon Aurora PostgreSQL de los clústeres de base de datos. Este controlador de contenedores está diseñado para funcionar con el controlador de la comunidad de PostgreSQL y ofrecer un mejor manejo de conmutación por error para bases de datos en clústeres, como Aurora PostgreSQL. El controlador JDBC de AWS para PostgreSQL es compatible con sus aplicaciones existentes porque agrega funcionalidad de conmutación por error junto con el controlador de la comunidad, lo que reduce la necesidad de realizar cambios en las aplicaciones. Esta versión reemplaza el controlador JDBC de AWS independiente para PostgreSQL, que se lanzó anteriormente como versión preliminar.

Este controlador de contenedores minimiza el tiempo de conmutación por error al supervisar el estado del clúster de la base de datos y almacenar en caché la topología del clúster. La memoria caché se utiliza para mejorar la velocidad de resolución de nombres de DNS si falla un nodo, y reducir el tiempo de conmutación por error de minutos a segundos. Es un proyecto de código abierto que usa la licencia de Apache v2 y se puede instalar usando Maven, Gradle o mediante un archivo .jar.

El controlador JDBC de AWS para PostgreSQL admite la autenticación de bases de datos de IAM. Visite el proyecto en GitHub para descargar el controlador y abrir solicitudes de características.

Amazon Elastic Container Service (Amazon ECS) anuncia la disponibilidad de atributos adicionales de metadatos para tareas que se ejecutan en la capacidad de Amazon EC2. Ahora puede usar el punto de conexión de metadatos de tareas de Amazon ECS para recuperar el nombre de servicio de una tarea, así como el ID de Amazon VPC de la instancia de Amazon EC2 en la que se ejecuta la tarea. Estos atributos adicionales de metadatos de tareas le ofrecen una visibilidad mejorada de las cargas de trabajo de los contenedores de ECS que se ejecutan en Amazon EC2.

Los atributos adicionales de metadatos de tareas están disponibles para todos los clientes de Amazon ECS de todas las regiones de AWS en las que está disponible Amazon ECS. Para obtener más información, consulte la documentación sobre los puntos de conexión de metadatos de tareas de Amazon ECS.

AWS Backup ofrece una nueva experiencia de la consola de bloqueo de almacenes de copias de seguridad ofreciéndole una manera más intuitiva de configurar los detalles del bloqueo de almacenes. El bloqueo de almacenes de AWS Backup le permite implementar y administrar las políticas de inmutabilidad de sus almacenes, protegiendo así sus copias de seguridad para que sean eliminadas de manera accidental o intencional. Según sean sus necesidades de retención de datos, el bloqueo de almacenes de AWS Backup, puede determinar el modo Governance (Control) o el modo Compliance (Conformidad) para configurar las políticas de inmutabilidad del almacén con más flexibilidad y varios niveles de seguridad. En el modo Control, los usuarios con los correspondientes permisos basados en funciones pueden probar y cambiar las políticas de retención e incluso eliminar por completo el bloqueo. En el modo Conformidad, el usuario puede especificar una fecha de bloqueo después de la cual se bloquea el almacén de forma inmutable. Una vez bloqueado, no se pueden cambiar los períodos de retención aceptables y ni siquiera el usuario raíz puede desactivar el bloqueo. Con esta función, la consola también le ofrece visibilidad para el estado de bloqueo de los almacenes y facilita los informes de todos los almacenes bloqueados. 

Para comenzar con el bloqueo de almacenes de AWS Backup, puede seleccionar el almacén de copias de seguridad que desea bloquear. Luego, puede seleccionar el período de retención que desea y especificar los períodos de retención aceptables para la configuración del bloqueo de almacenes. Con AWS Backup, puede configurar varias capas de protección de datos, incluyendo copias independientes de las copias de seguridad en varias regiones y cuentas de AWS, políticas de acceso a recursos independientes y retención de datos a largo plazo. 

El bloqueo de almacenes de AWS Backup ya está disponible en las regiones Este de EE. UU. (Ohio, Norte de Virginia), Oeste de EE. UU. (Norte de California, Oregón), Canadá (centro), Europa (Fráncfort, Irlanda, Londres, París, Estocolmo), América del Sur (São Paulo), Asia-Pacífico (Hong Kong, Mumbai, Seúl, Singapur, Sídney, Tokio), Oriente Medio (Baréin) y AWS GovCloud (EE. UU.). Para obtener más información sobre el bloqueo de almacenes de AWS Backup, visite la página del producto y la documentaciónde AWS Backup. Comience con el bloqueo de almacenes de AWS Backup utilizando la Consola de administración de AWS, SDK o CLI.

Ahora puede establecer una imagen de máquina de Amazon EC2 para que utilice el servicio de metadatos de instancias versión 2 en forma predeterminada. El IMDS versión 2 constituye una mejora en el acceso a los metadatos de instancias que requiere de solicitudes orientadas a la sesión para incorporar una mayor protección contra el acceso no autorizado a los metadatos. El IMDS versión 2 requiere de una solicitud PUT para iniciar una sesión en el servicio de metadatos de instancias y recuperar un token. Para establecer sus instancias solamente en el IMDS versión 2, debe configurar previamente las opciones de metadatos de instancias durante el inicio de las instancias, o bien debe actualizar su instancia después del inicio mediante la API de ModifyInstanceMetadataOptions.

Ahora, mediante la propiedad de Amazon Machine Images (AMI, imágenes de máquina de Amazon) del Instance Metadata Service (IMDS, servicio de metadatos de instancias), puede establecer que todas las nuevas instancias iniciadas desde las AMI correspondan al IMDS versión 2 en forma predeterminada. Cuando establece esta propiedad para ser compatible con el IMDS versión 2, cualquier instancia iniciada con la AMI utilizará solamente el IMDS versión 2 y su límite de saltos predeterminado se establecerá en 2 para permitir la compatibilidad de las cargas de trabajo en contenedores.

Para comenzar, registre su AMI y establezca esta propiedad en el IMDS versión 2. Aún podrá anular manualmente esta configuración y habilitar el IMDS versión 1 mediante las propiedades de inicio de las opciones de metadatos de instancias. Además, aún puede utilizar los controles de IAM para aplicar diferentes opciones de configuración del IMDS.

La nueva propiedad de AMI del IMDS ahora está disponible en todas las regiones de AWS y en AWS GovCloud (EE. UU.).

Para obtener más información sobre la nueva propiedad de AMI del IMDS, consulte la guía del usuario del IMDS versión 2.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS septiembre

 

Ahora puede usar AWS Resilience Hub con Elastic Load Balancing (ELB) y las comprobaciones de preparación del controlador de recuperación de aplicaciones de Amazon Route 53 para ayudar a cumplir los objetivos de recuperación de su aplicación. Resilience Hub le brinda un único lugar para definir, validar y hacer un seguimiento de la resiliencia de sus aplicaciones a fin de que pueda evitar tiempos de inactividad innecesarios debido a interrupciones operativas, de infraestructura o de software.

Con Resilience Hub, ahora puede evaluar la configuración de Elastic Load Balancing (ELB) de su aplicación, incluidos el equilibrador de carga de aplicación, el equilibrador de carga de puerta de enlace, el equilibrador de carga de red y el equilibrador de carga clásico. ELB automatiza la distribución del tráfico entrante de aplicaciones entre varios destinos y dispositivos virtuales en una o varias zonas de disponibilidad. Además de las evaluaciones, Resilience Hub proporciona recomendaciones de configuración de ELB para ayudar a cumplir el objetivo de tiempo de recuperación (RTO) y el objetivo de punto de recuperación (RPO) de su aplicación.

Resilience Hub también se integra con las comprobaciones de preparación del controlador de recuperación de aplicaciones de Route 53. El controlador de recuperación de aplicaciones de Route 53 le brinda información sobre si sus aplicaciones y recursos están listos para la recuperación, y lo ayuda a administrar y coordinar la conmutación por error. Con esta integración, Resilience Hub ahora puede evaluar la configuración del controlador de recuperación de aplicaciones de Route 53 y recomendar mejoras para ayudar a lograr el RTO y el RPO de su aplicación.

Los nuevos servicios admitidos están disponibles en todas las regiones de AWS donde se admite Resilience Hub. Consulte el Listado de servicios de las regiones de AWS para obtener la información más actualizada sobre disponibilidad.

Para obtener más información acerca de AWS Resilience Hub, visite la página del producto o la documentación técnica.

Gracias a Amazon Elastic Kubernetes Service (Amazon EKS), ahora es más fácil para los clientes comprender cómo los clústeres individuales de EKS impulsan sus costos de Amazon EC2. Los clientes que optan por utilizar varios clústeres de EKS para segmentar sus cargas de trabajo con el fin de mejorar su resiliencia o posición de seguridad ahora obtienen un desglose de sus costos de EC2 por cada clúster de EKS mediante los informes de costo y uso de AWS con un esfuerzo adicional mínimo.

Con este lanzamiento, todas las instancias de EC2 que se unen en un clúster de EKS se etiquetan automáticamente con una etiqueta de asignación de costos generada por AWS. Toda instancia de EC2 que se use en un clúster de EKS se etiquetará automáticamente sin que se requiera ninguna acción adicional, independientemente de si se aprovisionó con grupos de nodos administrados por EKS, Karpenter o directamente a través de EC2. Esta etiqueta puede utilizarse para asignar los costos de EC2 a clústeres individuales de EKS a través de la administración de facturación y costos de AWS, de modo que puedan incorporarse con facilidad en los flujos de trabajo financieros existentes que aprovechan estas herramientas de AWS comunes.

Para obtener más información, consulte la página Etiquetas para sus recursos de Amazon EKS en la documentación de Amazon EKS. Para obtener más información sobre Amazon EKS, visite la página del producto.

Amazon CloudFront ahora admite solicitudes HTTP versión 3 (HTTP/3) a través de QUIC para conexiones de usuarios finales. HTTP/3 utiliza QUIC, un protocolo de transporte seguro, multiplexado por flujo y basado en el protocolo de datagramas de usuario (UDP) que combina y mejora las capacidades del protocolo de control de transmisión (TCP), TLS y HTTP/2 existentes. HTTP/3 ofrece varios beneficios sobre las versiones anteriores de HTTP, incluidos tiempos de respuesta más rápidos y mayor seguridad.

Los clientes buscan constantemente ofrecer aplicaciones más rápidas y seguras a sus usuarios. A medida que aumenta la penetración de Internet en el mundo y más usuarios se conectan a través de dispositivos móviles y desde redes remotas, la necesidad de mejorar el rendimiento y la fiabilidad es mayor que nunca. HTTP/3 es una mejora con respecto a las versiones anteriores del protocolo y ayuda a los clientes a mejorar el rendimiento y la experiencia del espectador al reducir los tiempos de conexión y eliminar el bloqueo de encabezado de línea. La compatibilidad con HTTP/3 de CloudFront se basa en s2n-quic, una nueva implementación del protocolo QUIC de código abierto en Rust, con un fuerte énfasis en la eficiencia y el rendimiento. La implementación HTTP/3 de CloudFront admite migraciones de conexión del lado del cliente, lo que permite que las aplicaciones cliente recuperen conexiones que están experimentando eventos problemáticos, como la migración de Wi-Fi a celular o la pérdida persistente de paquetes, con una interrupción mínima o nula. Además, HTTP/3 proporciona mayor seguridad, ya que utiliza QUIC, que cifra los paquetes de protocolo de enlace TLS de forma predeterminada. Los clientes de CloudFront que han habilitado HTTP/3 en sus distribuciones han visto una mejora de hasta un 10 % en el tiempo hasta el primer byte y una mejora de hasta un 15 % en los tiempos de carga de la página. Los clientes también observaron mejoras en la fiabilidad a medida que se redujeron los errores del protocolo de enlace cuando habilitaron HTTP/3 en sus distribuciones.

Para habilitar HTTP/3 en sus distribuciones, puede editar la configuración de distribución a través de la consola de CloudFront, la acción de la API UpdateDistribution o mediante una plantilla de CloudFormation. Los clientes que no admiten HTTP/3 aún pueden comunicarse con distribuciones de Amazon CloudFront habilitadas para HTTP/3 con las versiones anteriores del protocolo.

HTTP/3 ahora está disponible en las más de 410 ubicaciones periféricas de CloudFront en todo el mundo y no hay cargo adicional por usar esta característica. Para obtener más información sobre el protocolo HTTP/3 de Amazon CloudFront, consulte la guía para desarrolladores de Amazon CloudFront. Para obtener más información sobre Amazon CloudFront, visite la página del producto.

Las instancias C6g y C6gd de Amazon EC2 se encuentran disponibles en la región de Asia-Pacífico (Osaka). Además, las instancias M6gd ahora se encuentran disponibles en la región de Europa (Estocolmo). Las instancias C6g y C6gd son ideales para cargas de trabajo que requieran un uso informático intensivo, como de computación de alto rendimiento (HPC), procesamiento por lotes, entrega de anuncios, codificación de video, videojuegos, creación de modelos científicos, análisis distribuido e inferencia de machine learning basado en CPU. Las instancias M6gd son ideales para aplicaciones de uso general, como los servidores de aplicaciones, los microservicios, los almacenes de datos medianos y las flotas de almacenamiento en caché. Las instancias C6gd y M6gd ofrecen hasta un 50 % más de almacenamiento NVMe GB/vCPU en comparación con las instancias comparables basadas en x86 y son ideales para las aplicaciones que necesitan almacenamiento local de alta velocidad y baja latencia.

Estas instancias funcionan con los procesadores AWS Graviton2. Los procesadores AWS Graviton están diseñados a medida por AWS para brindar el mejor rendimiento de precios en Amazon EC2. Los procesadores Graviton2 de AWS son los procesadores Graviton de segunda generación y ofrecen un gran avance en cuanto a rendimiento y capacidades con respecto a los procesadores Graviton de AWS de primera generación, gracias a un rendimiento 7 veces mayor, un número de núcleos informáticos 4 veces mayor, cachés 2 veces más grandes y una memoria 5 veces más rápida. Los procesadores AWS Graviton2 cuentan con cifrado DRAM de 256 bits siempre activo y con un rendimiento de cifrado por núcleo un 50 % más rápido en comparación con los procesadores AWS Graviton de primera generación. Estas instancias están diseñadas a partir de AWS Nitro System, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios de nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Estas instancias tienen un ancho de banda de la red de hasta 25 Gbps y hasta 19 Gbps de ancho de banda para Amazon Elastic Block Store (Amazon EBS). Las instancias C6gd y M6gd también brindan hasta 3,8 TB de almacenamiento SSD basado en NVMe.

Los procesadores AWS Graviton son compatibles con varios sistemas operativos de Linux, como Amazon Linux 2, Red Hat Enterprise Linux, SUSE y Ubuntu. Muchas aplicaciones y servicios populares de seguridad, monitoreo y administración, los contenedores, la integración continua y la entrega continua (CI/CD) de AWS y los socios de software también son compatibles con las instancias basadas en Graviton de AWS. El programa AWS Graviton Ready brinda a los clientes soluciones certificadas de proveedores de software de socios que pueden utilizarse en instancias basadas en Graviton de AWS. Muchos servicios de AWS también son compatibles con instancias basadas en Graviton, lo que hace que sea fácil y rápido descubrir las ventajas en precio y rendimiento. Entre los servicios de AWS compatibles con las instancias basadas en Graviton se incluyen Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Lambda, AWS Fargate, Amazon Aurora, Amazon Relational Database Service (Amazon RDS), Amazon EMR y Amazon ElastiCache.

Tras esta expansión regional, la instancia C6g de Amazon EC2 ahora se encuentra disponible en el Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort), Europa (Londres), Europa (Estocolmo), Europa (Milán), Europa (París), América del Sur (São Paulo), regiones de AWS GovCloud (EE. UU.), Canadá (centro), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Tokio), Asia-Pacífico (Seúl), Asia-Pacífico (Hong Kong), Oriente Medio (Baréin), China (Pekín, a cargo de Sinnet) y China (Ningxia, a cargo de NWCD) . La instancia C6gd de Amazon EC2 ahora se encuentra disponible en las regiones de AWS del Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Oeste de EE. UU. (San Francisco), Asia-Pacífico (Bombay), Asia-Pacífico (Osaka), Asia-Pacífico (Tokio), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Canadá (centro), Europa (Fráncfort), Europa (Irlanda) y Europa (Londres). La instancia M6gd de Amazon EC2 ahora se encuentra disponible en las regiones de AWS del Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Oeste de EE. UU. (San Francisco), Asia-Pacífico (Bombay), Asia-Pacífico (Tokio), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Europa (Fráncfort), Europa (Irlanda), Europa (Londres) y Europa (Estocolmo). Todas las instancias están disponibles en 8 tamaños, con 1, 2, 4, 8, 16, 32, 48 y 64 vCPU, además de la opción bare metal. Estas instancias pueden adquirirse bajo demanda, como instancias reservadas, como instancias de spot o como parte de Savings Plans.

Para comenzar a utilizar las instancias basadas en AWS Graviton2, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. También puede comenzar con instancias basadas en Graviton sin cargo con la prueba gratuita de T4g, que brinda hasta 750 horas por mes con las instancias t4g.small hasta el 31 de diciembre de 2022. Para obtener más información, consulte la página de AWS Graviton o la página de introducción a Github.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS junio

AWS Elastic Disaster Recovery (DRS) ha agregado soporte para múltiples cuentas provisionales y de destino. Ahora puede replicar y proteger hasta 300 servidores de origen por cada región de AWS. Al utilizar varias cuentas provisionales y de destino, ahora también puede recuperar hasta 3000 servidores de origen replicados en cualquier cuenta de AWS de destino. Esta función facilita y hace más eficiente la recuperación de desastres, la implementación y la supervisión, especialmente en proyectos con gran magnitud.

Puede usar múltiples cuentas provisionales y de destino para separar tus cuentas provisionales (en las que se gestiona la replicación) de tus cuentas de destino (en las que puede recuperar sus servidores de origen). Con esta nueva característica, puede recuperar servidores de origen de varias cuentas provisionales en una sola cuenta de destino de AWS. Esto ofrece una separación que puede ser útil para muchos propósitos, entre los que se incluyen seguridad, facturación y gestión de proyectos. También puede recuperar cada servidor de origen en múltiples cuentas de destino para diferentes propósitos, entre los que se incluyen pruebas, entorno aislado, desarrollo y producción.

AWS Elastic Disaster Recovery es el servicio recomendado para la recuperación de desastres en AWS. Minimiza el tiempo de inactividad y la pérdida de datos con una recuperación rápida y fiable de aplicaciones locales y basadas en la nube mediante un almacenamiento asequible, una computación mínima y una recuperación puntual. Con Elastic Disaster Recovery, puede recuperar sus aplicaciones en AWS desde la infraestructura física, VMware vSphere, Microsoft Hyper-V y la infraestructura de la nube. Además, puede utilizar Elastic Disaster Recovery para recuperar instancias de Amazon EC2 en una región de AWS diferente.

Múltiples cuentas provisionales ahora disponibles en todas las regiones en las que Elastic Disaster Recovery esté disponible.

Obtenga más información sobre las múltiples cuentas provisionales en la guía de usuario de Elastic Disaster Recovery. Para una visión general de Elastic Disaster Recovery, visite nuestra página de productos. Para comenzar, inicie sesión en la consola de Elastic Disaster Recovery.

Hoy, AWS anunció el lanzamiento del enrutamiento basado en IP para Amazon Route 53, el servicio en la nube de sistema de nombres de dominio (DNS) de AWS. Route 53 ofrece a los clientes múltiples opciones de enrutamiento, como el enrutamiento por geolocalización, el enrutamiento por geoproximidad, el enrutamiento basado en la latencia y el enrutamiento ponderado para dirigir a los usuarios finales a los puntos de conexión óptimos. Con la incorporación del enrutamiento basado en IP, los clientes ahora cuentan con la posibilidad adicional de ajustar su enfoque de enrutamiento de DNS basado en el bloque de enrutamiento entre dominios sin clases (CIDR) al que pertenece la dirección IP de origen de la consulta, con lo que se puede aprovechar el conocimiento de la base de usuarios finales para optimizar el rendimiento o los costos de tránsito de la red.

Por ejemplo, ahora puede dirigir a los usuarios finales de ciertas redes de proveedores de servicios de Internet (ISP) a puntos de conexión específicos, como las redes de entrega de contenidos (CDN). Estas asignaciones de ISP a CDN pueden ser únicas para cada cliente y estar basadas en factores como los contratos comerciales con las CDN o la topología de la red de un ISP asociado. Los clientes que han desarrollado mapas de decisión de enrutamiento basados en sus propios análisis y desean aplicarlos de forma integral a Route 53 ahora pueden cargar prefijos de direcciones IP (bloques CIDR) en Route 53, agruparlos en entidades que se pueden volver a utilizar, denominadas colecciones de CIDR, y asociar estas colecciones a uno o varios conjuntos de registros de recursos (RRSets). En el caso de los clientes que deseen aprovechar selectivamente el enrutamiento basado en IP para anulaciones específicas, el enrutamiento basado en IP también se puede utilizar en combinación con los tipos de enrutamiento existentes, como el enrutamiento por geolocalización.

El enrutamiento basado en IP de Route 53 ya se encuentra disponible de forma general en todas las regiones comerciales de AWS y en AWS China. Para obtener información sobre cómo utilizar esta característica, visite Elegir una política de enrutamiento en la documentación de Route 53 y el anuncio de enrutamiento basado en IP en el blog de Redes y entrega de contenido de AWS. Para obtener más información sobre los precios, visite la página de precios de Route 53.

La compatibilidad de AWS Proton con la definición de infraestructura en el lenguaje de configuración HashiCorp (HCL) y el aprovisionamiento de infraestructura con Terraform de código abierto ya está disponible de forma general en todas las regiones en las que Proton está disponible. Los equipos de plataformas ahora pueden definir plantillas de AWS Proton con módulos de Terraform, que se suman a CloudFormation. AWS Proton aprovecha la automatización administrada por el cliente de Terraform para aprovisionar o actualizar la infraestructura. Los clientes pueden utilizar Terraform como su herramienta de definición y aprovisionamiento de infraestructura. AWS Proton mantiene al día los módulos que se utilizan de manera consistente. Este lanzamiento de disponibilidad general incluye compatibilidad con repositorios de BitBucket para la administración de infraestructura y un sistema de mensajería mejorado en el servicio para que el estado de aprovisionamiento quede más claro.

AWS Proton es el primer servicio de implementación de aplicaciones completamente administrado para las aplicaciones de contenedores y sin servidores. Los equipos de plataformas pueden utilizar AWS Proton para conectar y coordinar las diversas herramientas que se necesitan para el aprovisionamiento de la infraestructura, las implementaciones de código, el monitoreo y las actualizaciones en una interfaz de autoservicio seleccionada para desarrolladores. La interfaz de autoservicio brinda a los desarrolladores acceso a la infraestructura aprobada para crear e implementar sus aplicaciones.

Para utilizar AWS Proton con Terraform de código abierto, comience por crear plantillas de AWS Proton para entornos y servicios con módulos de Terraform. A continuación, seleccione un repositorio de configuración. Cuando los equipos de desarrollo creen o actualicen un servicio que utilice Terraform, AWS Proton renderizará los módulos que componen el servicio y realizará una solicitud de extracción al repositorio correspondiente. Cuando el flujo de trabajo se desencadene, aprovisionará la infraestructura. Una vez hecho esto, el flujo de trabajo indicará el estado a AWS Proton. Los desarrolladores pueden conseguir un aprovisionamiento de infraestructuras consistente para sus servicios sin tener que montar y configurar sus módulos de Terraform. Los equipos de plataformas pueden supervisar y actualizar la infraestructura en varios entornos sin tener que revisar el código en diferentes repositorios y carpetas.

Para obtener más información acerca de cómo utilizar AWS Proton con Terraform, lea esto.

Ahora puede utilizar volúmenes elásticos para aumentar la capacidad y ajustar el rendimiento de los volúmenes io2 Block Express de forma dinámica, sin que se produzcan tiempos de inactividad ni impactos en el rendimiento, de la misma forma que con otros volúmenes de EBS. Además, ahora puede crear un volumen io2 Block Express completamente inicializado a partir de una instantánea habilitada para la restauración rápida de instantáneas (FSR). Los volúmenes que se crean a partir de instantáneas habilitadas para FSR entregan instantáneamente su rendimiento aprovisionado. Estas características se agregan a las capacidades del tipo de volumen con mayor rendimiento de EBS: io2 Block Express.

Lanzados en julio de 2021, los volúmenes io2 Block Express ofrecen rendimiento, IOPS y capacidad hasta cuatro veces mayores que los volúmenes io2, además de estar diseñados para entregar una latencia inferior a un milisegundo y una durabilidad del 99,999 %. io2 Block Express se aplica a los volúmenes io2 que se ejecutan en la arquitectura Block Express de EBS. Puede aprovisionar un único volumen io2 que entregue hasta 256 000 IOPS, 4000 MB/s de rendimiento y capacidad de almacenamiento de hasta 64 TiB para ejecutar implementaciones esenciales de Oracle, SAP HANA, Microsoft SQL Server y SAS Analytics. Con soporte para los volúmenes elásticos, puede aumentar de forma dinámica el tamaño del volumen y cambiar el rendimiento (IOPS), lo que proporciona una mayor flexibilidad para establecer el tamaño adecuado del volumen para su carga de trabajo. Además, con FSR puede obtener el rendimiento predecible de un volumen io2 Block Express creado a partir de una instantánea sin tener que inicializar los volúmenes usted mismo. Este rendimiento mejorado y predecible ayuda con diversos casos de uso, como el desarrollo de entornos de VDI; la realización de copias de seguridad y la restauración de archivos; y la creación, la prueba y el desarrollo de copias del volumen.

Cualquier volumen io2 que se adjunte a las instancias R5b, las instancias X2idn/X2iedn y las nuevas instancias C7g siempre se ejecutará en Block Express. Puede administrar los volúmenes io2 con la consola de administración de AWS, la AWS CLI o los AWS SDK. También puede utilizar Amazon Data Lifecycle Manager (Amazon DLM) para crear y administrar de forma automática las instantáneas habilitadas para FSR de los volúmenes io2 Block Express. Estos volúmenes están disponibles en las regiones Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Asia-Pacífico (Bombay), Asia-Pacífico (Seúl), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Europa (Fráncfort), Europa (Irlanda) y Europa (Londres). Para obtener más información, consulte la página de información general de producto de io2 Block Express.

Amazon Elastic Container Services (Amazon ECS) brinda una capacidad de autoescalado de clústeres (CAS) para administrar de manera dinámica el escalado de sus grupos de escalado automático (ASG) de Amazon Elastic Compute Cloud (EC2) en su nombre, de modo que usted pueda centrarse en ejecutar sus contenedores. Los proveedores de capacidad son la interfaz de computación que vincula su clúster de Amazon ECS con sus ASG. Con los proveedores de capacidad, puede definir reglas flexibles sobre cómo se ejecutan las cargas de trabajo en contenedores en diferentes tipos de capacidad de cómputo, y administrar la escala de la capacidad. Los proveedores de capacidad mejoran la disponibilidad, la escalabilidad y el costo de ejecutar tareas y servicios en ECS. A partir de hoy, simplificamos el mecanismo de integración entre los proveedores de capacidad y los ASG al realizar la integración de manera directa con una política de escalado de seguimiento de destino en lugar de depender del plan de escalado de AWS Auto Scaling.

Los proveedores de capacidad escalan de manera automática la capacidad de infraestructura dentro de su ASG, según la configuración de capacidad de destino. Antes, Amazon ECS creaba un plan de escalado de AWS Auto Scaling que contenía una única política de escalado de seguimiento de destino para administrar la capacidad de destino del ASG asociado. La política de escalado de seguimiento de destino garantizaba que su ASG contaba con el número requerido de instancias de Amazon EC2 para dar soporte a sus cargas de trabajo. Con el lanzamiento de hoy, hemos simplificado la integración entre los proveedores de capacidad y ASG al eliminar la capa adicional del plan de escalado, de modo que el proveedor de capacidad ahora creará directamente la misma política de seguimiento de destinos para la administración del CAS. Este cambio se aplicará de manera automática a todos los nuevos proveedores de capacidad que cree. No es necesario que realice ninguna acción para actualizar sus proveedores de capacidad existentes. Continuarán funcionando igual que antes, con un plan de escalado que contiene la política de escalado de seguimiento de destinos.

Para obtener más información acerca de cómo funciona el escalado automático de clústeres y detalles adicionales sobre esta actualización, consulte la documentación

AWS Systems Manager anuncia la compatibilidad con el reenvío de puertos a hosts remotos mediante Session Manager. AWS Systems Manager es el centro de operaciones para sus aplicaciones y recursos de AWS y proporciona un solución de administración segura de extremo a extremo para entornos de nube híbrida. Session Manager, una capacidad de Systems Manager, proporciona un acceso seguro a instancias administradas en la nube, locales o en la periferia, sin necesidad de abrir puertos de entrada, administrar claves de Secure Shell (SSH) o utilizar hosts de bastión.

El reenvío de puertos de Session Manager se utiliza para establecer un túnel de comunicaciones entre un equipo cliente y una instancia administrada de Systems Manager. A partir de hoy, Session Manager es compatible con el reenvío de conexiones desde un equipo cliente a puertos de hosts remotos. Con el reenvío de puertos remoto, ahora puede utilizar una instancia administrada como “host de salto” para conectarse de forma segura a un puerto de aplicación en servidores remotos, como bases de datos y servidores web, sin exponer esos servidores a una red externa.

Para empezar, instale el SSM Agent versión 3.1.1374.0 o posterior en las instancias administradas con las que está estableciendo una sesión de reenvío de puertos. Puede iniciar una sesión de reenvío de puertos desde la línea de comandos mediante el documento AWS-StartPortForwardingSessionToRemoteHost Session Manager. Para obtener más información sobre el reenvío de puertos de hosts remotos, consulte la página del producto y la documentación de AWS Systems Manager.

Amazon Web Services (AWS) anuncia la disponibilidad general de las nuevas instancias de uso general M6id de Amazon Elastic Compute Cloud (Amazon EC2). Las instancias M6id se basan en procesadores Intel Xeon Scalable de tercera generación (nombre en código Ice Lake) con una frecuencia turbo de 3,5 GHz para todos los núcleos, equipados con hasta 7,6 TB de almacenamiento en bloque de disco de estado sólido (SSD) local basado en NVMe, y ofrecen hasta un 15 % más de rendimiento de precio en comparación con las instancias M5d. En comparación con las instancias de la generación anterior, las instancias M6id ofrecen hasta un 58 % más de almacenamiento en TB por vCPU y un 34 % menos de costo por TB. Las instancias M6id también vienen con cifrado de memoria de funcionamiento continuo mediante el uso de Intel Total Memory Encryption (TME). Al igual que todas las instancias de EC2 modernas, las instancias M6id se basan en AWS Nitro System, una combinación de hardware dedicado e hipervisor ligero, que entrega la mayor parte de los recursos de computación y de memoria del hardware host a las instancias. Las instancias M6id son ideales para cargas de trabajo que requieren un equilibrio entre recursos informáticos y de memoria junto con almacenamiento local en bloque de alta velocidad y baja latencia, incluido el registro de datos y el procesamiento de medios. Las instancias de M6id también favorecerán a las aplicaciones que necesiten un almacenamiento temporal de datos, como el procesamiento de lotes y registros, y a las aplicaciones que necesitan memorias caché y archivos temporales.

Para satisfacer las demandas de los clientes de una mayor escalabilidad, las instancias M6id ofrecen un nuevo tamaño de instancia (32xlarge) con 128 vCPUs y 512 GiB de memoria (ambos un 33 % más que las instancias más grandes de la generación anterior) y un ancho de banda de memoria por vCPU hasta un 20 % mayor en comparación con las instancias de la generación anterior. Las instancias M6id también proporcionan a los clientes hasta 50 Gbps de velocidad de red y 40 Gbps de ancho de banda a Amazon Elastic Block Store, el doble que las instancias comparables de la generación anterior. Los clientes pueden utilizar Elastic Fabric Adapter en el tamaño 32xlarge, lo que habilita una baja latencia y una comunicación entre nodos altamente escalable. Para obtener un rendimiento óptimo de la red en estas nuevas instancias, es posible que se necesite el último controlador del adaptador de red elástico (ENA). Para obtener más información sobre el controlador del ENA óptimo para M6id, consulte ¿Qué se debe hacer antes de migrar la instancia de EC2? 

Estas instancias se encuentran disponibles de forma general actualmente en estas regiones de AWS: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda). Las instancias de M6id se encuentran disponibles en 10 tamaños, con 2, 4, 8, 16, 32, 48, 64, 96 y 128 vCPUs, incluido el tamaño de metal. Los clientes pueden adquirir las nuevas instancias a través de Savings Plans, instancias reservadas, instancias bajo demanda e instancias de spot. Para comenzar, consulte la Consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, instancias M6i de Amazon EC2.

Amazon Managed Grafana ahora admite una nueva API para crear tokens de la API de Grafana, así como es compatible con nuevos complementos, la versión 8.4 de Grafana y etiquetas de espacio de trabajo. Mediante CreateWorkspaceApiKey, los clientes pueden crear tokens de la API de Grafana sin necesidad de iniciar sesión en la consola del espacio de trabajo de Grafana, con lo cual los usuarios pueden crear, eliminar y administrar mediante programación recursos de Grafana, como paneles, alertas y orígenes de datos. Amazon Managed Grafana agrega compatibilidad con complementos de Github, Moogsoft, Pixie y Windrose, por lo que ahora los clientes pueden conectar, consultar y visualizar datos a partir de orígenes de datos adicionales. Los espacios de trabajo existentes y nuevos de Amazon Managed Grafana ahora admiten la versión 8.4 de Grafana, para lo cual no se requiere ninguna acción por parte de los usuarios. Los clientes ahora pueden etiquetar los espacios de trabajo de Amazon Managed Grafana y de ese modo simplificar la administración de la organización y los costos de los espacios de trabajo. Las etiquetas son marcas de pares de clave y valor que se pueden asociar a los espacios de trabajo de Amazon Managed Grafana para buscar, filtrar o asignar costos.

Amazon Managed Grafana es un servicio completamente administrado que se encarga del aprovisionamiento, configuración, escalado y mantenimiento de servidores de Grafana. Se encuentra disponible de forma general en las siguientes regiones: Este de EE. UU. (Ohio), Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort), Europa (Londres), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Asia-Pacífico (Sídney) y Asia-Pacífico (Seúl). Para comenzar a crear un espacio de trabajo, consulte la consola de AWS o revise la Guía del usuario de Amazon Managed Grafana para obtener documentación detallada. Para obtener más información, visite la página del producto de Amazon Managed Grafana, la página de precios y la página de recetas de observabilidad de AWS para obtener plantillas de inicio.

Hoy, Amazon EC2 anunció la característica de Protección contra detenciones que permite a los clientes proteger las instancias frente a acciones de detención accidentales. Anteriormente, los clientes podían proteger las instancias contra acciones de terminación involuntarias mediante la activación de la Protección contra terminaciones. Gracias a la Protección contra detenciones, los clientes que tienen cargas de trabajo con estado pueden proteger los datos de los volúmenes del almacén de instancias contra las acciones de detención y terminación involuntarias.

Cuando está activada, la característica de Protección contra detenciones bloquea los intentos de detener o terminar la instancia a través de la consola, la API o la CLI de EC2. Esta característica brinda una medida extra de protección para las cargas de trabajo con estado, ya que las instancias se pueden detener o terminar únicamente si se desactiva la característica de Protección contra detenciones.

Para obtener más información, visite la página Detener e iniciar instancias.

La nueva generación de instancias C7g de Amazon EC2 optimizadas para computación ya está disponible de manera general. Las instancias C7g son las primeras instancias que cuentan con la tecnología de los nuevos procesadores Graviton3 de AWS, y brindan un rendimiento hasta un 25 % mejor respecto a las instancias C6g basadas en Graviton2 para una amplia variedad de aplicaciones, como servidores de aplicaciones, microservicios, procesamiento por lotes, Electronic Design Automation (EDA), videojuegos, cifrado de video, generación de modelos científicos, análisis distribuido, computación de alto rendimiento (HPC), inferencia de machine learning (ML) basado en CPU y entrega de anuncios.

Los procesadores AWS Graviton 3 son la nueva generación de procesadores AWS Graviton personalizados que brindan la mejor relación precio-rendimiento para cargas de trabajo en Amazon Elastic Compute Cloud (Amazon EC2). Ofrecen hasta el doble rendimiento de punto flotante, un rendimiento de cifrado hasta el doble de rápido y un rendimiento de ML hasta tres veces superior, con compatibilidad incluida con bfloat16, en comparación con los procesadores AWS Graviton2. Las instancias C7g basadas en Graviton3 son las primeras instancias disponibles de manera general en la nube que cuentan con la memoria DDR5 más reciente, que brinda un 50 % más de ancho de banda de memoria en comparación con DDR4, de modo que permite acceso de alto velocidad a los datos en memoria. Las instancias basadas en Graviton3 también utilizan hasta un 60 % menos de energía para el mismo nivel de rendimiento que las instancias de EC2 comparables, lo que le permite reducir su huella de carbono en la nube. Las instancias C7g de Amazon EC2 están diseñadas a partir del sistema Nitro de AWS, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios de nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Ofrecen un ancho de banda de la red mejorado de hasta 30 Gbps y hasta 20 Gbps de ancho de banda a Amazon Elastic Block Store (Amazon EBS).

Desde el anuncio de la versión preliminar en re:Invent 2021, cientos de clientes, incluidos Epic Games, Formula 1, NextRoll, Snap, Sprinklr y Twitter, han probado sus cargas de trabajo en instancias C7g basadas en Graviton3 y han observado una mejora notable del rendimiento en comparación con las instancias C6g basadas en Graviton2. Twitter ejecutó varias pruebas representativas de sus cargas de trabajo y descubrió que C7g ofreció un rendimiento hasta un 80 % mejor que la generación C6g anterior. Además, informaron de una reducción de la latencia de cola de un nada despreciable 35 %. Formula 1 ejecutó sus cargas de trabajo de dinámicas de fluidos computaciones en C7g y descubrió que presentaban un rendimiento un 40 % superior al de las instancias C6g. Honeycomb.io, que adoptó Graviton desde el principio, observó una mejora del rendimiento del 35 % y una reducción del 30 % de la latencia en comparación con C6g para su carga de trabajo de incorporación de telemetría.

Las instancias de Amazon EC2 cuentan con la tecnología de la familia de procesadores Graviton de AWS, incluidas las instancias C7g, compatibles con muchos de los sistemas operativos de Linux populares, como Amazon Linux 2, Red Hat Enterprise Linux, SUSE y Ubuntu. El programa AWS Graviton Ready le brinda diferentes soluciones certificadas para seguridad, supervisión y administración, contenedores y CI/CD de proveedores externos que pueden utilizarse en instancias basadas en Graviton. Muchos servicios de AWS también son compatibles con instancias basadas en Graviton, lo que hace que sea fácil y rápido descubrir las ventajas en precio y rendimiento. Entre los servicios de AWS compatibles con las instancias basadas en Graviton se incluyen Amazon Elastic Kubernetes Service (Amazon EKS), Amazon Elastic Container Service (Amazon ECS), AWS Lambda, AWS Fargate, Amazon Aurora, Amazon Relational Database Service (Amazon RDS), Amazon EMR y Amazon ElastiCache.

Las instancias C7g de Amazon EC2 ya están disponibles en las siguientes regiones de AWS de EE. UU: Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Estas instancias están disponibles en 8 tamaños, con 1, 2, 4, 8, 16, 32, 48 y 64 CPU virtuales y pueden adquirirse bajo demanda, como instancias reservadas, instancias de spot o parte de Savings Plans. Para comenzar a usar las instancias C7g de Amazon EC2 basadas en Graviton3 de AWS, vaya a la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. También puede comenzar con instancias basadas en Graviton sin cargo con la prueba gratuita de T4g, que brinda hasta 750 horas por mes con las instancias t4g.small hasta el 31 de diciembre de 2022. Para obtener más información, consulte Procesador Graviton de AWSInstancias C7g de Amazon EC2 o Introducción a Graviton.

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

 

Read more...

Novedades: Amazon AWS febrero

La replicación de Amazon S3 es una característica elástica, completamente administrada y de bajo costo que replica los objetos cargados recientemente en dos o más buckets de Amazon S3, manteniendo los buckets sincronizados. Gracias a la replicación por lotes de S3, ahora es posible sincronizar los objetos existentes entre los buckets.

Puede utilizar la replicación por lotes de S3 para replicar un bucket creado recientemente con objetos existentes, reintentar objetos que no se pudieron replicar anteriormente, migrar datos entre cuentas o agregar nuevos buckets a su lago de datos. La replicación por lotes de S3 funciona con cualquier volumen de datos, ofreciéndole un modo completamente administrado de satisfacer sus necesidades de seguridad y cumplimiento de datos, recuperación de desastres y optimización del rendimiento. Puede comenzar a utilizar la replicación por lotes de S3 con unos pocos clics en la consola de S3 o con una solicitud a la API.

Para iniciar la replicación por lotes de S3, puede proporcionar una lista de objetos para replicar o hacer que Amazon S3 compile una lista por usted especificando el bucket de origen y filtros adicionales como la fecha de creación del objeto y el estado de la replicación. La lista generada por S3 se denomina Manifiesto y puede revisarla antes de que se inicie el trabajo para asegurarse de que la lista de objetos es correcta. La replicación por lotes de S3 se construye utilizando las operaciones por lotes de S3 para replicar objetos de forma asíncrona. Al igual que con otros trabajos de operaciones por lotes de S3, tendrá una visión completa del progreso del trabajo, incluyendo el tiempo de ejecución y el porcentaje de objetos completados. También puede recibir un informe de finalización detallado con el estado de cada objeto al terminar.

La replicación por lotes de S3 complementa las funciones de replicación de S3 existentes: Replicación dentro de una misma región (SRR) y Replicación entre regiones (CRR). Mientras que SRR y CRR replican automáticamente los nuevos objetos entre los buckets, ahora puede replicar los objetos existentes utilizando la replicación por lotes de S3. La replicación por lotes de S3 también replica los objetos independientemente de su estado de replicación, es decir, si nunca se han replicado, si no se han podido replicar previamente o si se han replicado previamente como parte de otro flujo de trabajo.

La replicación por lotes de S3 está disponible en todas las regiones de AWS, incluidas las regiones de AWS GovCloud (EE. UU.), la región de AWS China (Pekín), operada por Sinnet, y la región de AWS (Ningxia), operada por NWCD. Puede comenzar con la replicación por lotes de S3 a través de la consola de S3, la interfaz de línea de comandos de AWS (CLI), la interfaz de programa de aplicación (API) o el cliente del kit de desarrollo de software (SDK) de AWS. Para obtener más información acerca de los precios, visite la pestaña Replicación de la página de precios de Amazon S3. Para obtener más información sobre la replicación por lotes de S3, visite la Guía del usuario de S3 o lea el blog de noticias de AWS.

Lanzamiento de una nueva característica de enriquecimiento por geolocalización para los modelos de machine learning (ML) de Amazon Fraud Detector que calcula automáticamente la distancia entre la dirección IP, la dirección de facturación y la dirección de envío proporcionadas para un evento. De esta forma, se ayuda a evitar más fraudes, sobre todo cuando un usuario intenta crear una cuenta con los datos de otra persona o realizar una transacción con la tarjeta de crédito de alguien más.

Amazon Fraud Detector es un servicio completamente administrado que facilita en mayor medida la identificación de actividades en línea potencialmente fraudulentas, como la creación de cuentas falsas o el fraude en los pagos en línea. Con una estructura interna basada en ML y más de 20 años de experiencia en detección de fraude, Amazon Fraud Detector identifica automáticamente actividad potencialmente fraudulenta en milisegundos, sin necesidad de experiencia en ML. Como parte del proceso de entrenamiento de modelos, Amazon Fraud Detector enriquece los elementos de datos sin procesar, como las direcciones IP, los números de identificación bancaria (BIN) y los números de teléfono para crear docenas de entradas adicionales para su modelo de detección de fraude.

A partir de hoy, el Amazon Fraud Detector calcula automáticamente la distancia física entre la dirección IP, la dirección de facturación y la dirección de envío que usted proporciona para un evento. Las distancias calculadas se utilizan entonces como entradas para el modelo de detección de fraude. Este nuevo enriquecimiento aumenta el rendimiento de los modelos que utilizan estas variables, lo que permite que estos modelos capturen hasta un 10 % más de casos de fraude con una tasa de falsos positivos del 3 %

El enriquecimiento por geolocalización se habilita automáticamente para todos los modelos en todas las regiones en las que está disponible Amazon Fraud Detector. Los clientes de Amazon Fraud Detector pueden aprovechar este nuevo enriquecimiento mediante el reentrenamiento de los modelos que utilicen la variable de dirección IP, así como las de dirección de envío o dirección de facturación. Para obtener más información, consulte nuestra página de documentación.

Ya puede utilizar la lista de prefijos administrada por AWS para Amazon CloudFront con el fin de limitar el tráfico HTTP/HTTPS entrante a los orígenes desde solo las direcciones IP que pertenecen a los servidores orientados al origen de CloudFront. CloudFront mantiene actualizada la lista de prefijos administrada con las direcciones IP de los servidores orientados al origen de CloudFront para que no tenga que mantener una lista de prefijos usted mismo.

Puede consultar la lista de prefijos administrada para CloudFront en sus reglas de grupo de seguridad de Amazon Virtual Private Cloud (VPC), la tabla de enrutamiento de subred, las reglas de grupo de seguridad comunes con AWS Firewall Manager y cualquier otro recurso de AWS que pueda utilizar una lista de prefijos administrada. Por ejemplo, puede utilizar la lista de prefijos administrada para CloudFront en las reglas de entrada de su grupo de seguridad de VPC para permitir que solo las direcciones IP de CloudFront accedan a sus instancias de EC2. Al utilizar la lista de prefijos administrada con las reglas de grupo de seguridad comunes para AWS Firewall Manager, puede limitar el acceso a varios Application Load Balancers (ALB) en todas sus cuentas de AWS.  Para más detalles, consulte la Lista de prefijos administrada de AWS.

LA lista de prefijos administrada está disponible para su uso inmediato a través de la consola de AWS y el SDK de AWS en todas las regiones excepto en China, Asia Pacífico (Jakarta) y Asia Pacífico (Osaka). La lista de prefijos puede consultarse en sus plantillas de CloudFormation en las regiones disponibles. No hay una tarifa adicional por utilizar la lista de prefijos administrada de CloudFront. Para obtener más información, consulte la Guía para desarrolladores de CloudFront.

Amazon RDS for MariaDB ya admite MariaDB 10.6. Esta versión presenta varias características de MariaDB que permiten mejorar el rendimiento, la escalabilidad, la confiabilidad y la capacidad de administración de sus cargas de trabajo, incluyendo:

  • Motor de almacenamiento MyRocks: Puede utilizar el motor de almacenamiento MyRocks con RDS para MariaDB y, de este modo, optimizar el consumo de almacenamiento de las aplicaciones web de alto rendimiento que hacen un uso intensivo de escritura.
  • Integración con IAM: Ahora puede configurar AWS Identity and Access Management (IAM) con sus instancias de Amazon RDS for MariaDB para simplificar la administración del acceso a sus recursos de AWS. Gracias a IAM, puede administrar el acceso de los usuarios a todos los recursos de AWS desde una sola ubicación, lo que evita los problemas ocasionados por la desincronización de los permisos en los distintos recursos de AWS.
  • Actualizaciones flexibles: Puede actualizar a RDS for MariaDB 10.6 desde cualquier versión principal de MariaDB anterior (10.2, 10.3, 10.4 o 10.5) en un solo paso. Asimismo, puede tomar una instantánea de una instancia existente de MySQL 5.6 o 5.7 y utilizar la característica de restauración de instantáneas de RDS para convertirla en una instancia de MariaDB 10.6.
  • Replicación diferida: Ahora puede definir un período de tiempo configurable durante el cual una réplica de lectura se retrasa con respecto a la base de datos de origen, como estrategia de recuperación de desastres. En una configuración estándar de replicación para MariaDB, hay un retraso de replicación mínimo entre el origen y la réplica.
  • Compatibilidad con Oracle PL/SQL: Con un conjunto de funciones de compatibilidad PL/SQL más amplio [por ejemplo, ROWNUM(), TO_CHAR(), ADD_MONTHS()], puede migrar sus procedimientos almacenados heredados de Oracle sin necesidad de aportar modificaciones a RDS for MariaDB 10.6.
  • Atomic DDL: Ahora, sus declaraciones DDL serán a prueba de fallos con RDS for MariaDB 10.6. CREATE TABLE, ALTER TABLE, RENAME TABLE, DROP TABLE, DROP DATABASE y las instrucciones DDL relacionadas ahora son de tipo atómico. Hasta ahora, un bloqueo durante una operación DDL podía dar lugar a resultados indeterminados e introducir errores durante la replicación. Gracias al DDL atómico, una operación DDL o bien se termina por completo o no se lleva a cabo en absoluto. Por lo tanto, la recuperación de bloqueos durante las operaciones DDL es determinista, y el registro de la papelera de recuperación sigue siendo consistente en todos los bloqueos del servidor.
  • Otras mejoras: Función JSON_TABLE para transformar datos JSON a un formato relacional dentro de SQL; carga más rápida de datos de tablas vacías con InnoDB; nuevo sys_schema para ejecutar análisis y resolución de problemas; mejora del optimizador que permite ignorar índices no utilizados; y, por último, mejoras de rendimiento.

Si desea obtener más información sobre Amazon RDS for MariaDB y aprender a actualizar las instancias de bases de datos, consulte la Guía del usuario de Amazon RDS. Lance una instancia de base de datos Amazon RDS for MariaDB 10.6 nueva o actualice una instancia existente con unos pocos clics en la consola de administración de AWS

Ya están disponibles las instancias de memoria optimizadas de Amazon EC2 X2iezn. Las instancias X2iezn de Amazon EC2 cuentan con la tecnología de los procesadores de segunda generación Intel Xeon Scalable, con frecuencia turbo para todos los núcleos de hasta 4,5 GHz. Además, estas instancias ofrecen el más alto rendimiento de CPU turbo en todos los núcleos, a partir de procesadores Intel Xeon escalables en la nube, y brindan un rendimiento de precio de computación hasta un 55 % superior en comparación con las instancias X1e. Son perfectas para cargas de trabajo de automatización de diseño electrónico (Electronic Design Automation [EDA]); además, las bases de datos relaciones también se benefician de un alto rendimiento de procesador de un único subproceso y una enorme capacidad de memoria. La combinación de un rendimiento de computación de un único subproceso y una proporción 32:1 de memoria para vCPU hace que las instancias X2iezn sean las más apropiadas para cargas de trabajo de EDA, entre las que se incluyen verificación física, análisis de tiempo estático, encendido y apagado de sistemas y simulación de nivel de puerta de chip, y cargas de trabajo de bases de datos delimitadas por licencias. 

Las instancias Amazon EC2 X2iezn se basan en el sistema Nitro de AWS, que es una amplia colección de bloques funcionales que descargan muchas de las funciones de virtualización tradicionales del hardware dedicado para ofrecer instancias en la nube con alto rendimiento, alta disponibilidad y alta seguridad. 

Las instancias X2iezn están disponibles en 6 tamaños que van de 8 a 48 vCPU, de 256 a 1536 GiB de memoria. Las instancias X2iezn también ofrecen una capacidad de red de hasta 100 Gbps, con compatibilidad con Elastic Fabric Adapter (EFA) y hasta 19 Gbps de capacidad de procesamiento para Amazon Elastic Block Store (EBS). Las instancias X2iezn también están disponibles como instancias bare metal, que permiten a los clientes de EC2 ejecutar aplicaciones que aprovechan la herramientas de análisis profundo del rendimiento, cargas de trabajo especializadas que requieren el acceso directo a infraestructuras bare metal, cargas de trabajo heredadas no compatibles con entornos virtuales y aplicaciones empresariales críticas con restricciones de licencia. Estas instancias le brindan a sus aplicaciones acceso directo a los recursos de procesador y memoria del servidor subyacente, y puede seguir beneficiándose de todos los completos servicios y características de la nube de AWS, como Amazon Elastic Block Store (EBS), Elastic Load Balancer (ELB) y Amazon Virtual Private Cloud (VPC). 

Las instancias X2iezn están disponibles a partir de ahora en las regiones de AWS Oeste de EE. UU. (Oregón), Este de EE. UU. (Norte de Virginia), Europa (Irlanda) y Asia-Pacífico (Tokio). Las instancias X2iezn estarán disponibles para su compra con Savings Plans o instancias reservadas, reservadas convertibles, bajo demanda y de spot, o como instancias dedicadas o hosts dedicados.

Para comenzar a usar las instancias X2iezn, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. Para obtener más información, consulte la página de las instancias X2iezn de EC2 o el foro de AWS sobre EC2, o bien comuníquese con sus contactos habituales de AWS Support. 

 

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS enero

Hoy AWS ha anunciado la posibilidad de lanzar instancias de Microsoft Windows Server hasta un 65 % más rápido en Amazon Elastic Compute Cloud (EC2). Los clientes pueden marcar cualquier Amazon Machine Image (AMI) que ejecute Microsoft Windows Server para un lanzamiento más rápido. Una vez marcada, cada instancia lanzada desde la AMI se lanzará automáticamente más rápido.

Los tiempos de lanzamiento del sistema operativo Microsoft Windows Server pueden ser una fuente de costosos retrasos durante el aprovisionamiento de recursos para cargas de trabajo esencial y procesos de recuperación. Al lanzar las instancias de Microsoft Windows con mayor rapidez, la nueva funcionalidad ayuda al aprovisionamiento oportuno de instancias a escala. Ya sea que ejecute cargas de trabajo difíciles, que necesite una recuperación más rápida del sistema o que desee agregar una capacidad adicional o de conmutación por error, ahora puede hacer que las instancias de Microsoft Windows para todos estos casos de uso se inicien con mayor rapidez. Los equipos de TI que gestionan entornos en la nube pueden ofrecer un mejor servicio y satisfacer las necesidades dinámicas de la empresa con menores costos operativos.

Los clientes pueden marcar una AMI de Microsoft Windows para un lanzamiento más rápido, ya sea en la sección de administración de AMI de la consola de Amazon EC2 o mediante comandos API/CLI. No se aplica ningún cargo por marcar las AMI para un lanzamiento más rápido. Los clientes solo pagan por los recursos subyacentes de AWS utilizados para preparar las instancias para un lanzamiento más rápido desde las AMI.

Obtenga más información en la sección de la documentación de Amazon EC2 Windows sobre la configuración de las AMI de Microsoft Windows para un lanzamiento más rápido. Para obtener más información sobre cómo sacar el máximo partido a las instancias de Amazon EC2 que ejecutan el sistema operativo Microsoft Windows Server, consulte la página Windows en AWS y la guía sobre las AMI de Windows en AWS.

Amazon Web Services (AWS) anuncia la disponibilidad general de las instancias Hpc6a de Amazon EC2. Estas instancias están optimizadas para ejecutar de forma eficiente cargas de trabajo de computación intensivo y de alto rendimiento, como la dinámica de fluidos computacional, el modelado de yacimientos, las simulaciones meteorológicas y el análisis de elementos finitos. Las instancias Hpc6a ofrecen hasta un 65 % mejor rendimiento en precio que las instancias comparables basadas en x86 de Amazon EC2, optimizadas para computación. Con las instancias Hpc6a, puede reducir considerablemente el costo de las cargas de trabajo de HPC, al tiempo que aprovecha la elasticidad y la escalabilidad de AWS.

Las instancias Hpc6a cuentan con 96 núcleos de procesadores AMD EPYC de tercera generación con una frecuencia turbo en todos los núcleos de 3,6 GHz y 384 GB de RAM. Estas instancias están diseñadas a partir del sistema Nitro de AWS, un conjunto de innovaciones de software y hardware diseñado por AWS que permite ofrecer servicios en la nube eficientes, flexibles y seguros, con multitenencia aislada, redes privadas y almacenamiento local de gran velocidad. Las instancias Hpc6a ofrecen redes Elastic Fabric Adapter de 100 Gbps habilitadas de forma predeterminada para las comunicaciones de alto rendimiento entre nodos para ayudarle a ejecutar sus cargas de trabajo HPC a escala.

Las instancias Hpc6a están disponibles en el Este de EE. UU. (Ohio) y en AWS GovCloud (Oeste de EE. UU.). Para optimizar las redes de instancias HPC para cargas de trabajo estrechamente acopladas, podrá acceder a las instancias Hpc6a en una única zona de disponibilidad.

Para obtener más información sobre la instancia Hpc6a, visite la página de detalles del producto.

AWS Firewall Manager ahora le permite implementar de forma centralizada las protecciones automáticas de ataques DDoS en la capa de aplicación (L7) de AWS Shield Advanced en todas las cuentas de su organización. Las protecciones automáticas de ataques DDoS L7 de AWS Shield Advanced bloquean los eventos DDoS de la capa de aplicación sin necesidad de intervención manual. Con este lanzamiento, los administradores de seguridad para AWS Firewall Manager ahora pueden habilitar las protecciones automáticas de ataques DDoS L7 a través de las cuentas que utilizan la política de seguridad de Firewall Manager para AWS Shield Advanced.

Para comenzar, habilite la mitigación automática de ataques DDoS L7 en una política de Firewall Manager Shield Advanced. A continuación, se añadirá un grupo de reglas WAF gestionado por Shield a una lista de control de acceso web (ACL web) del WAF para los recursos protegidos. Shield Advanced evalúa cada regla WAF que crea con respecto al tráfico normal que entra a los recursos para minimizar los falsos positivos y realiza la implementación en modo de recuento, de permiso o de bloqueo.

AWS Firewall Manager es un servicio de administración de la seguridad que actúa como una ubicación central para configurar e implementar las reglas del firewall en todas las cuentas y recursos de su organización. Con Firewall Manager, puede implementar y monitorear reglas para AWS WAF, AWS Shield Advanced, grupos de seguridad VPC, AWS Network Firewall y Amazon Route 53 Resolver DNS Firewall en toda su organización. Firewall Manager garantiza que todas las reglas de firewall se apliquen de manera sistemática, incluso cuando se creen cuentas o recursos nuevos. 

Para comenzar, consulte la documentación de AWS Firewall Manager para obtener más información y la tabla de regiones de AWS para conocer las regiones donde AWS Firewall Manager se encuentra disponible actualmente. Para obtener más información sobre AWS Firewall Manager, sus características y precios, visite el sitio web de AWS Firewall Manager.

A partir de hoy, Amazon Elastic Container Registry (ECR) cuenta con la capacidad de supervisar estadísticas de extracción de repositorio mediante Amazon CloudWatch. Las nuevas estadísticas de extracción le ayudan a supervisar patrones de uso o a identificar comportamientos anómalos mediante la observación de solicitudes de extracción de imágenes por repositorio.

Amazon CloudWatch le brindará a partir de ahora estadísticas sobre el número de imágenes extraídas desde su repositorio de ECR privado de manera predeterminada. Gracias a la información adicional, los clientes pueden identificar los repositorios a los que se accede con más frecuencia, comprender la adopción de nuevos repositorios o disponer de mayor información sobre el uso de repositorios. Los clientes con cuotas de servicio pueden utilizar estos datos para entender qué repositorios cuentan con el mayor número de extracciones de imágenes o para detectar un comportamiento anómalo que está dando lugar a solicitudes de extracción innecesarias.

Para obtener más información acerca de las estadísticas de extracción de repositorios de Amazon ECR, consulte nuestro documento técnico.

Amazon Relational Database Service (RDS) Proxy ahora se encuentra disponible en las regiones de AWS de África (Ciudad del Cabo), Asia-Pacífico (Hong Kong), Asia-Pacífico (Osaka), Europa (Milán), Europa (París), Europa (Estocolmo), Medio Oriente (Baréin) y América del Sur (São Paulo).

RDS Proxy es un proxy de base de datos completamente administrado y de alta disponibilidad para bases de datos RDS y Amazon Aurora. RDS Proxy ayuda a mejorar la escalabilidad, resistencia y seguridad de las aplicaciones.

Varias aplicaciones, incluso las que se han creado en arquitecturas modernas sin servidor, pueden necesitar un gran número de conexiones abiertas a la base de datos o bien abrir y cerrar con frecuencia conexiones a la base de datos, lo que agota la memoria de la base de datos y los recursos informáticos. RDS Proxy permite que las aplicaciones agrupen y compartan conexiones de bases de datos, lo cual mejora la eficiencia de la base de datos y la escalabilidad de las aplicaciones. En el caso de una conmutación por error, RDS Proxy puede mantener las conexiones de la aplicación y seguir aceptándolas, además de reducir los tiempos de conmutación por error hasta en un 66 %, lo que mejora la disponibilidad de las bases de datos RDS y Aurora. Por último, gracias a RDS Proxy, las aplicaciones pueden aplicar la autenticación IAM, lo que elimina la necesidad de almacenar las credenciales de la base de datos en la aplicación.

Para obtener una lista completa de las regiones en las que RDS Proxy se encuentra disponible, consulte la página de precios.

AWS Lambda ya es compatible con los puntos de conexión IPv6 para las conexiones entrantes, lo que permite a los clientes invocar funciones de Lambda a través de IPv6. Esto ayuda a los clientes a cumplir los requisitos de cumplimiento de IPv6 y elimina la necesidad de contar con equipos de red de coste elevado para administrar la traducción de direcciones entre IPv4 e IPv6.

Para utilizar esta nueva capacidad, configure sus aplicaciones para utilizar los nuevos puntos de conexión de pila doble de AWS Lambda, que son compatibles con IPv4 e IPv6. Los nuevos puntos de conexión de pila doble de AWS Lambda tienen el formato lambda.region.api.aws. Por ejemplo, el punto de conexión de pila doble en el Este de EE. UU. (Norte de Virginia) es lambda.us-east-1.api.aws. Al realizar una solicitud a un punto de conexión de pila doble de Lambda, el punto de conexión resuelve una dirección IPv6 o IPv4, dependiendo del protocolo utilizado por la red y el cliente.

Para conectarse por medio de programación a un servicio de AWS, puede especificar un punto de conexión en la AWS CLI o en el SDK de AWS. Para obtener más información sobre los puntos de conexión de servicios, consulte Puntos de conexión de servicios de AWS. Para obtener más información sobre los puntos de conexión de servicios de Lambda, consulte Puntos de conexión de servicios de AWS Lambda en la documentación de AWS.

Puede utilizar los nuevos puntos de conexión de pila doble de AWS Lambda para las conexiones entrantes sin costo adicional. Los nuevos puntos de conexión de pila doble se encuentra disponible de forma general en Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Norte de California), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Fráncfort), Europa (Irlanda), Europa (Londres), Europa (París), Europa (Estocolmo), Europa (Milán), Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Asia-Pacífico (Sídney), Asia-Pacífico (Seúl), Asia-Pacífico (Osaka), Asia-Pacífico (Bombay), Asia-Pacífico (Hong Kong), Canadá (central), Medio Oriente (Baréin), América del Sur (São Paulo) y África (Ciudad del Cabo). Para obtener más información sobre la disponibilidad, consulte la tabla de regiones de AWS.

En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Amazon Translate es un servicio de traducción automática neuronal que ofrece traducción de idiomas rentable, personalizable, de alta calidad y rápida. A partir de hoy, cuenta con la capacidad de enmascarar expresiones obscenas entendidas comúnmente y evitar que aparezcan en sus traducciones. De manera predeterminada, Amazon Translate elige palabras que no sean malsonantes para el resultado de la traducción. En aquellos casos en los que aparezcan expresiones obscenas en el resultado traducido, ahora puede elegir enmascarar las expresiones y frases obscenas con la cadena grawlix “?$#@$”. Esta secuencia de 5 caracteres se utiliza para cada expresión o frase obscena, sin importar la longitud o el número de caracteres que incluya. 

El enmascaramiento de expresiones obscenas se puede aplicar tanto en tiempo real como de manera asíncrona a trabajos de traducción por lotes en todas las regiones comerciales de AWS donde Amazon Translate está disponible. Para obtener más información, consulte la documentación de Amazon Translate acerca del enmascaramiento de expresiones obscenas.

Read more...
Subscribe to this RSS feed

CONTACTE CON CLOUDAWS: PARTNER AWS

Teléfono:

902 727 350

Web:

Formulario de contacto

Email:

javier.root@cloudaws.es