+34 902.727.350  info@cloudaws.es  Intranet clientes

Noviembre 2021 - Partner Especialista Nube AWS: Outsourcing Consultoría, Sysops, Migración y Despliegue.

Novedades: Amazon AWS noviembre

Amazon AppStream 2.0 agrega soporte para Amazon Linux 2. Gracias a este lanzamiento, ahora puede transmitir aplicaciones y escritorios de Linux a sus usuarios, y reducir notablemente el costo de streaming total al migrar Matlab, Eclipse, Firefox, PuTTY y otras aplicaciones similares desde Windows a Linux en Amazon AppStream 2.0.

Ahora puede transmitir aplicaciones compatibles con Linux a sus usuarios de la misma forma sencilla en la que actualmente transmite aplicaciones de Windows, con un costo por hora inferior, cargos por segundo y sin cuota por usuario. Gracias al streaming de aplicaciones de Linux, puede transformar su entrega de aplicaciones en un modelo de software como servicio (SaaS), brindar a sus desarrolladores entornos de desarrollo de Linux remotos con herramientas populares como Python y Docker, permitir a sus diseñadores el acceso a aplicaciones CAD que requieran escritorios de Linux con GPU de alto rendimiento desde cualquier lugar, y configurar entornos de aprendizaje de Linux basados en la nube para estudiantes.

La compatibilidad de AppStream 2.0. es compatible actualmente en todas las regiones de AWS donde AppStream 2.0 está disponible. Para comenzar, inicie sesión en la consola de AppStream 2.0. y seleccione una región; lance un creador de imágenes basado en Amazon Linux 2 para instalar sus aplicaciones y cree la imagen para su usuarios. Las instancias basadas en Linux para AppStream 2.0 utilizan la facturación por segundo (con un mínimo de 15 minutos). Para obtener más información, consulte los precios de Amazon AppStream 2.0.

La moderación de contenidos de Amazon Rekognition es una característica basada en el aprendizaje profundo que permite detectar imágenes y vídeos inapropiados, no deseados u ofensivos, facilitando la búsqueda y eliminación de estos contenidos a escala. Amazon Rekognition proporciona una clasificación detallada a través de 35 subcategorías y 10 categorías de moderación de nivel superior. Desde hoy, la moderación de contenidos de Amazon Rekognition cuenta con un modelo mejorado para la moderación de imágenes que reduce significativamente las tasas de falsos positivos en todas las categorías de moderación, en particular la de “desnudos explícitos”, sin que se reduzcan las tasas de detección de contenidos verdaderamente inseguros. La reducción en los índices de falsos positivos disminuye el volumen de imágenes marcadas para revisiones adicionales, lo que supone una mejor experiencia para los moderadores humanos y un mayor ahorro de costos.

En la actualidad, muchas empresas emplean equipos de moderadores humanos para revisar los contenidos de terceros o generados por los usuarios, mientras que otras simplemente reaccionan a las quejas de los usuarios para retirar los contenidos ofensivos o inapropiados. Sin embargo, los moderadores humanos por sí solos no pueden satisfacer estas necesidades con la calidad o la rapidez necesarias, lo que podría dar lugar a una mala experiencia del usuario, a elevados costos para alcanzar la escala o incluso a que la reputación de la marca se vea afectada. La moderación de contenidos de Amazon Rekognition le permite agilizar sus flujos de trabajo de moderación utilizando machine learning. Gracias a las API de moderación completamente administradas, puede revisar rápidamente millones de imágenes o miles de vídeos, y marcar únicamente un pequeño subconjunto de activos para aplicar medidas adicionales. Esto le garantiza una cobertura de moderación completa a la vez que rentable para todos sus contenidos a medida que su empresa crece, además de reducir la carga que supone para su personal tener que examinar grandes volúmenes de contenidos susceptibles de moderación.

Las mejoras de precisión para la moderación de contenido de Amazon Rekognition en imágenes ya están disponibles en todas las regiones de AWS compatibles. Para comenzar, puede probar la última versión en la consola de Amazon Rekognition. Para obtener más información sobre la moderación de contenidos de Amazon Rekognition, consulte la documentación de la característica.

Hoy anunciamos la disponibilidad general de las instancias G5 de Amazon EC2, que cuentan con la tecnología de las GPU NVIDIA A10G Tensor Core. Estas instancias se pueden emplear en una amplia variedad de casos de uso con utilización intensiva de gráficos y de machine learning. Ofrecen un rendimiento hasta tres veces mayor para aplicaciones de uso intensivo de gráficos e inferencia de machine learning y un rendimiento hasta 3,3 veces mayor para la formación de modelos de machine learning simples a moderadamente complejos en comparación con las instancias G4dn de Amazon EC2.

Las instancias G5 cuentan con hasta ocho GPU NVIDIA A10G Tensor Core y procesadores AMD EPYC de segunda generación También admiten hasta 192 CPU virtuales, 100 Gbps de ancho de banda de red y 7,6 TB de almacenamiento local SSD NVMe. Con ocho tamaños de instancia G5 que ofrecen acceso a una única GPU o a varias, los clientes cuentan con la flexibilidad de escoger el tamaño de instancia adecuado para sus aplicaciones.

Además, pueden utilizar las instancias G5 para aplicaciones de uso intensivo de gráficos, como las estaciones de trabajo remotas, los renderizados de video y los videojuegos en la nube, que generan gráficos de alta fidelidad en tiempo real. Los clientes de machine learning puede utilizar las instancias G5 para llevar a cabo formaciones de alto rendimiento y rentables e inferencia para casos de uso de procesamiento de lenguaje natural, visión artificial y motor de recomendaciones.

Los clientes pueden optimizar con facilidad las instancias G5 para sus cargas de trabajo mediante el acceso sin costo adicional a los controladores Tesla de NVIDIA para las cargas de trabajo informáticas, los controladores GRID para aprovisionar estaciones de trabajo virtuales RTX, y los controladores de videojuego. 

Las instancias G5 de Amazon EC2 se encuentran disponibles hoy mismo en las regiones de AWS Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda). Los clientes pueden adquirir instancias G5 como instancias en diferido, instancias reservadas, instancias de spot o como parte de los Savings Plans.

Para comenzar, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, visite la página de las instancias G5.

Amazon Elastic Container Service (Amazon ECS) ha mejorado los proveedores de capacidad de Amazon ECS para entregar una experiencia de Auto Scaling de clústeres más rápida. Los clientes que necesiten lanzar un número elevado de tareas (más de 100) en sus clústeres de Amazon ECS ahora podrán consultar su escala de infraestructura de clústeres con mayor rapidez.

Amazon ECS es un servicio de orquestación de contenedores completamente administrado que le permite implementar, administrar y escalar aplicaciones en contenedores de forma más sencilla. Escalado automático de clústeres es una capacidad de Amazon ECS que administra el escalado de grupos de Auto Scaling de Amazon Elastic Compute Cloud (EC2) por usted, de modo que pueda centrarse únicamente en ejecutar sus tareas. Hemos hecho muchas optimizaciones en los proveedores de capacidad, que ahora permiten a Amazon ECS ajustar la capacidad del clúster con mejor capacidad de respuesta, sobre todo en caso en los que el clúster necesita escalar horizontalmente para lanzar un número elevado de tareas (más de 100) o cuando varios servicios de ECS que tienen diferentes requisitos de recursos se escalan horizontalmente de manera simultánea. Estas optimizaciones del rendimiento le brindarán una experiencia de Auto Scaling de clústeres más rápida.

Las optimizaciones ya están habilitadas de manera automática en las regiones de AWS donde ECS está disponible. No se necesitan más acciones por su parte. Para obtener más información, consulte Análisis en profundidad del Auto Scaling de clústeres de Amazon ECS y Guía del usuario para el Auto Scaling de clústeres.

Amazon DocumentDB (compatible con MongoDB) es un servicio de base de datos escalable, de larga duración y completamente administrado para operar cargas de trabajo de MongoDB esenciales. 

Amazon DocumentDB (compatible con MongoDB) ahora es compatible con los tipos de instancia T4g.medium y R6g (instancias Graviton2). La instancias Graviton2 brindan hasta un 30 % de mejora de rendimiento para cargas de trabajo de Amazon DocumentDB en función del tamaño de la base de datos.

Amazon Web Services fabrica de forma personalizada los procesadores Graviton2 de AWS con núcleos Arm Neoverse de 64 bits, que ofrecen diversas optimizaciones de rendimiento superiores a las de los procesadores Graviton de AWS de primera generación. Estas incluyen 7 veces mejor rendimiento, 4 veces la cantidad de núcleos de procesamiento, cachés privadas 2 veces más grandes por núcleo, memoria 5 veces más rápida y rendimiento de punto flotante 2 veces más rápido por núcleo. Asimismo, los procesadores Graviton2 de AWS tienen una memoria DDR4 totalmente cifrada de funcionamiento continuo para acelerar en un 50 % el rendimiento de cifrado por núcleo. Estas mejoras en el rendimiento hacen que las instancias de bases de datos R6g de Graviton2 sean una excelente opción para cargas de trabajo de bases de datos. Las instancias Graviton2 de Amazon DocumentDB están disponibles desde el tamaño mediano hasta 16xlarge. 

Puede lanzar las instancias R6g de Graviton2 y T4g.medium en la consola de administración de Amazon DocumentDB o con la AWS CLI. La actualización de una instancia de Amazon DocumentDB a Graviton2 necesita una modificación del tipo de instancias simple, con los mismos pasos que cualquier otra modificación de instancia. Sus aplicaciones continuarán funcionando normalmente y no tendrá que transferir código de aplicación. Para más información sobre la compatibilidad de la versión de base de datos, consulte nuestra documentación. Para obtener más información sobre cómo empezar, consulte nuestra guía de introducción. Para obtener información completa sobre los precios y la disponibilidad regional, consulte los precios de Amazon DocumentDB.

Amazon Elastic Container Service (Amazon ECS) ya proporciona a los clientes información mejorada sobre el estado de su infraestructura informática. Los clientes que ejecutan cargas de trabajo en contenedores con Amazon ECS en Amazon Elastic Compute Cloud (Amazon EC2) o en las instalaciones con Amazon ECS Anywhere ya pueden consultar el estado del tiempo de ejecución del contenedor (por ejemplo, Docker) en las instancias de contenedor directamente desde la API de Amazon ECS. Esto ayuda a los clientes a mejorar la resiliencia de la aplicación.

Aunque sea con poca frecuencia, pueden surgir problemas con la infraestructura del anfitrión o el tiempo de ejecución de Docker que pueden impedir que se inicien los nuevos contenedores e incluso pueden afectar a los contenedores que ya están en ejecución. Con el lanzamiento de hoy, Amazon ECS monitorea automáticamente el tiempo de ejecución del contenedor para observar su respuesta en nombre del cliente. Los clientes pueden usar la API ECS Describe-Instances con la opción include Health Status (Incluir estado) para ver información del estado de sus tareas de Amazon ECS.

Los clientes pueden ver el estado de todas las instancias de contenedor de Amazon ECS que ejecutan la versión 1.57.0 o posterior del agente de contenedores de Amazon ECS. Esta versión está disponible automáticamente con la versión 20211103 de la AMI optimizada para Amazon ECS. Amazon ECS está disponible en todas las regiones públicas de AWS. Para obtener más información, consulte la documentación aquí.

A partir de hoy, puede configurar EC2 Fleet y la flota de spot para que terminen automáticamente una instancia de spot al usar el reequilibrio de capacidades. Con el reequilibrio de capacidades, EC2 Fleet y la flota de spot intentan reemplazar una instancia de spot cuando tiene un riesgo elevado de interrupción, según lo indique la señal de recomendación de reequilibrio de la instancia EC2. Hasta ahora, EC2 Fleet o la flota de spot lanzaban una instancia de spot de reemplazo sin terminar la instancia de spot que recibía una recomendación de reequilibrio; es decir, antes tenía que terminar manualmente la instancia una vez que se completaba el reequilibrio de la carga de trabajo, o bien dejar que la instancia se ejecutara hasta que EC2 la interrumpiera. Ahora puede configurar EC2 Fleet o la flota de spot para que terminen automáticamente la instancia que recibe una recomendación de reequilibrio con una demora especificada para la terminación.

La terminación automática de instancias resulta útil para las cargas de trabajo en las que se puede calcular la cantidad de tiempo que se tarda en completar el trabajo y definirla como una demora en la terminación; p. ej., trabajos en lote con el mismo tiempo de procesamiento. Tenga en cuenta que Amazon EC2 aún puede interrumpir la instancia de spot con una notificación estándar de dos minutos antes de que finalice la demora en la terminación. Con la terminación automática de instancias, no es necesario crear una lógica personalizada de terminación de instancias. Para optimizar costos, puede hacer que EC2 Fleet o la flota de spot terminen automáticamente las instancias una vez que se complete el reequilibrio de la carga de trabajo.

EC2 Fleet y la flota de spot simplifican el aprovisionamiento de capacidad de EC2 en diferentes tipos de instancias EC2, zonas de disponibilidad y modelos de compra (en diferido, instancias reservadas, Savings Plans e instancias de spot) lo que permite optimizar la escalabilidad, el rendimiento y el costo de su aplicación. Para conocer más sobre la terminación automática de instancias con el reequilibrio de capacidades, consulte la documentación de EC2 Fleet, la documentación de la flota de spot y la publicación del blog de informática de AWS.

Amazon CloudFront lanza la compatibilidad con las políticas de encabezados de respuesta. Ahora puede agregar el uso compartido de recursos entre orígenes (CORS), la seguridad y los encabezados personalizados a las respuestas HTTP devueltas por sus distribuciones de CloudFront. Ya no es necesario configurar los orígenes ni utilizar funciones personalizadas de Lambda@Edge o CloudFront para insertar estos encabezados. 

Puede utilizar las políticas de encabezados de respuesta de CloudFront para asegurar las comunicaciones de su aplicación y personalizar su comportamiento. Con los encabezados CORS, puede especificar desde qué orígenes se permite a una aplicación web acceder a los recursos. Puede insertar cualquiera de los siguientes encabezados de seguridad para intercambiar información relacionada con la seguridad entre aplicaciones web y servidores: HTTP Strict Transport Security (HSTS), X-XSS-Protection, X-Content-Type-Options, X-Frame-Options, Referrer-Policy y Content-Security-Policy. Por ejemplo, HSTS impone el uso de conexiones HTTPS cifradas en lugar de HTTP en texto no cifrado. También puede agregar pares clave-valor personalizables a los encabezados de respuesta utilizando políticas de encabezados de respuesta, para modificar el comportamiento de las aplicaciones web. Los encabezados de respuesta insertados también son accesibles para las funciones de Lambda@Edge y las funciones de CloudFront, lo que permite una lógica personalizada más avanzada en el borde.

Con esta versión, CloudFront también proporciona varias políticas de encabezados de respuesta preconfigurados. Estas incluyen políticas para encabezados de seguridad predeterminados, una política CORS que permite compartir recursos desde cualquier origen, una política CORS pre-flight que permite todos los métodos HTTP, y políticas que combinan encabezados de seguridad predeterminados con CORS o CORS pre-flight. También puede crear sus propias políticas personalizadas para varios perfiles de contenido y aplicaciones y ponerlas en práctica en el comportamiento de la caché de cualquier distribución de CloudFront que pueda tener características similares.

Las políticas de encabezados de respuesta de CloudFront están disponibles para su uso inmediato a través de la consola de CloudFront, los SDK de AWS y la AWS CLI. Para obtener más información, consulte la Guía para desarrolladores de CloudFront. No hay ningún cargo adicional por el uso de las políticas de encabezados de respuesta de CloudFront.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...

Novedades: Amazon AWS octubre

 

Amazon Web Services (AWS) anuncia la disponibilidad general de las instancias C6i de Amazon EC2 optimizadas para informática. Las instancias C6i cuentan con la tecnología de los procesadores Intel Xeon Scalable de tercera generación (código Ice Lake) con una frecuencia turbo para todos los núcleos de 3,5 GHz, ofrecen un rendimiento de precios de cómputo hasta un 15 % mejor que las instancias C5 para una variedad de cargas de trabajo, y un cifrado de memoria siempre activo con Intel Total Memory Encryption (TME). Las instancias C6i, diseñadas para cargas de trabajo que requieren un uso informático intensivo, se basan en el sistema Nitro de AWS, una combinación de hardware dedicado e hipervisor ligero, que ofrece prácticamente todos los recursos informáticos y de memoria del hardware del host a sus instancias. Estas instancias son ideales para cargas de trabajo con uso informático intensivo, como el procesamiento en lotes, el análisis distribuido, la informática de alto rendimiento (HPC), la entrega de anuncios, los videojuegos multijugador con alto nivel de escalabilidad y la codificación de videos.

Con el fin de satisfacer las demandas de mayor escalabilidad por parte de los clientes, las instancias C6i ofrecen un nuevo tamaño de instancia (c6i.32xlarge) con 128 vCPU y 256 GiB de memoria, un 33 % más que la instancia C5 más grande. También ofrecen una banda ancha con hasta un 9 % más de memoria por vCPU en comparación con las instancias C5. C6i también ofrece a los clientes una velocidad de redes de hasta 50 Gbps y una banda ancha de 40 Gbps a Amazon Elastic Block Store, el doble que las instancias C5. Los clientes pueden usar Elastic Fabric Adapter en el tamaño 32xlarge, lo que permite una baja latencia y una comunicación entre nodos altamente escalable. Para un rendimiento óptimo de las redes en estas nuevas instancias, actualice los controladores de Elastic Network Adapter (ENA) a la versión 3. Para más información, consulte este artículo sobre cómo habilitar y configurar redes mejoradas en instancias EC2.

Estas instancias están disponibles actualmente de forma general en las regiones de AWS de EE. UU. Este (Norte de Virginia, Ohio), EE. UU. Oeste (Oregón) y Europa (Irlanda). Las instancias C6i están disponibles en 9 tamaños, con 2, 4, 8, 16, 32, 48, 64, 96 y 128 vCPU. Los clientes pueden comprar las nuevas instancias por medio de instancias de spot, en diferido, reservadas y Savings Plans. Para comenzar, visite la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, visite la página de instancias C6i.

Amazon Elastic Kubernetes Service (EKS) ahora suma compatibilidad nativa con Bottlerocket en los grupos de nodos administrados de EKS en todas las regiones comerciales de AWS. En la actualidad, la mayoría de los clientes de EKS implementan sus aplicaciones en nodos de trabajo respaldados por sistemas operativos que están diseñados para una variedad de casos de uso. AWS lanzó Bottlerocket, un sistema operativo de código abierto, mínimo y basado en Linux, que se creó específicamente y se optimizó para ejecutar contenedores. Los grupos de nodos administrados de EKS y Bottlerocket, cuando se combinan, dan a los clientes una manera sencilla de aprovisionar y administrar la capacidad informática a través de las prácticas recomendadas más recientes para la ejecución de contenedores en producción. Bottlerocket ahora se incluye como opción de AMI integrada para grupos de nodos administrados, lo que permite a los clientes aprovisionar nodos de trabajo optimizados para contenedores con un único clic.

Los clientes de EKS pueden migrar fácilmente sus aplicaciones para que se ejecuten en nodos de trabajo basados en Bottlerocket y se beneficien de una posición de seguridad de nodos mejorada. Al pasarse a nodos de trabajo que incluyen solo el conjunto mínimo de paquetes necesarios para ejecutar contenedores, los clientes se benefician de una menor superficie de ataque, un menor tiempo de aprovisionamiento de nodos y una mayor eficiencia, ya que se asignan a las aplicaciones un mayor número de recursos de nodo. De esta manera, se mejora la utilización y la escala de los clústeres. Los grupos de nodos administrados ofrecen notificaciones cuando hay disponibles AMI de EKS Bottlerocket más recientes, lo que permite a los clientes actualizar los nodos de manera más sencilla a las versiones más recientes del software.

Para comenzar, los clientes pueden seguir sus flujos de trabajo existentes para aprovisionar los grupos de nodos administrados y sencillamente seleccionar Bottlerocket como tipo de AMI en las opciones de configuración informática. Bottlerocket está disponible sin costo adicional y es totalmente compatible con AWS. Solo se paga por las instancias EC2 que se conectan al clúster. Para comenzar, consulte nuestro blog y la documentación de EKS.

AWS anuncia hoy la disponibilidad de AWS Fargate para contenedores de Windows en Amazon ECS. Esta característica simplifica la adopción de una tecnología de contenedores moderna para los clientes de Amazon ECS, ya que hace que la ejecución de contenedor de Windows en AWS sea aún más sencilla.

Los clientes que ejecutan aplicaciones de Windows dedican mucho tiempo y esfuerzo a proteger y escalar las máquinas virtuales para la ejecución de sus cargas de trabajo en contenedores. El aprovisionamiento y la administración de los componentes y configuraciones de la infraestructura pueden socavar la productividad de los equipos de desarrolladores e infraestructura. Con el lanzamiento de hoy, ya no es necesario que los clientes configuren grupos de escalado automático ni administren instancias de host para una aplicación. Fargate, además de ofrecer aislamiento a nivel de las tareas, se encarga de los parches y actualizaciones necesarios, para ayudar a brindar un entorno informático protegido. Los clientes pueden reducir el tiempo que dedican a los esfuerzos operativos y, en su lugar, enfocarse en desarrollar y entregar aplicaciones innovadoras.

Con Fargate, la facturación tiene una granularidad por segundo, con un mínimo de 15 minutos, y los clientes solo pagan la cantidad de vCPU y recursos de memoria que solicita su aplicación en contenedores. Además, los clientes pueden seleccionar un Compute Savings Plan, que les permite ahorrar dinero a cambio de un compromiso de uno o tres años por una cantidad uniforme de uso informático. Para obtener más detalles, visite la página de precios de Fargate.

La compatibilidad de Fargate para contenedores de Windows en Amazon ECS está disponible en todas las regiones de AWS, salvo en las regiones de AWS de China y AWS GovCloud (EE. UU.). Admite la versión del Canal de mantenimiento a largo plazo (LTSC) de Windows Server 2019 en la plataforma Windows para Fargate, versión 1.0.0 o posterior. Consulte nuestra documentación pública y lea la entrada de blog Running Windows Containers with Amazon ECS on AWS Fargate (Ejecución de contenedores de Windows con Amazon ECS en AWS Fargate) para más información sobre el uso de esta característica desde la API, la interfaz de línea de comandos (CLI) de AWS, los SDK de AWS o AWS Copilot CLI.

A partir de hoy, puede solicitar la capacidad de EC2 en función de las necesidades de instancias de su carga de trabajo. La selección de tipo de instancias basada en atributos, una nueva característica de Amazon EC2 Auto Scaling, EC2 Fleet y Spot Fleet, facilita la creación y el mantenimiento de flotas de instancias sin necesidad de investigar y seleccionar los tipos de instancias EC2. Resulta útil para ejecutar cargas de trabajo y marcos flexibles de tipo de instancias, como contenedores, big data y CI/CD, o para casos sencillos en los que desee que las flotas de instancias utilicen automáticamente los tipos de instancias de última generación. En lugar de crear y mantener una lista de tipos de instancias aceptables, ahora puede definir simplemente los requisitos de instancia una vez y dejar que la selección de tipo de instancias basada en atributos se encargue del resto.

Para comenzar, cree o modifique un grupo de Auto Scaling o flota y especifique los requisitos de instancia de su carga de trabajo. Para la mayoría de las cargas de trabajo de uso general es suficiente con especificar el número de vCPU y la memoria que necesita. Para casos de uso avanzados, puede especificar atributos como el tipo de almacenamiento, las interfaces de red, el fabricante de la CPU y el tipo de acelerador. Una vez que haya terminado, EC2 Auto Scaling o Fleet seleccionará y lanzará instancias basadas en los atributos, la opción de compra y la estrategia de asignación que haya seleccionado.

La selección de tipo de instancias basada en atributos es especialmente útil para la ejecución de cargas de trabajo de tipo de instancias flexibles en las instancias de spot de EC2. La mejor manera de utilizar las instancias de spot es solicitar la capacidad a través de tantos tipos de instancias como sea posible. La selección de tipo de instancias basada en atributos facilita la elección de la más amplia gama de tipos de instancias disponibles en función de sus necesidades. También puede preparar sus flotas de instancias para el futuro al agregar automáticamente tipos de instancias EC2 de nueva generación en los grupos de Auto Scaling o flotas a medida que se lanzan.

Para obtener más información, consulte la documentación y la publicación del blog sobre la selección de tipo de instancias basada en atributos de Amazon EC2 Auto Scaling , la documentación sobre la selección de tipo de instancias basada en atributos de la flota de EC2 y la documentación sobre la selección de tipo de instancias basada en atributos de la flota de spot.

Amazon EC2 Auto Scaling ayuda a mantener la disponibilidad de la aplicación y permite agregar o eliminar automáticamente instancias EC2 según las condiciones que defina. Puede utilizar las características de administración de flotas para mantener el estado y la disponibilidad de la suya. EC2 Auto Scaling está disponible en todas las regiones comerciales de AWS y en las regiones de AWS GovCloud (EE. UU.). Para obtener más información, visite la página de documentación de Amazon EC2 Auto Scaling.

Amazon EC2 Fleet y Spot Fleet simplifican el aprovisionamiento de capacidad de EC2 en diferentes tipos de instancias EC2, zonas de disponibilidad y modelos de compra (bajo demanda, instancias reservadas, Savings Plans e instancias de spot) lo que permite optimizar la escala, el rendimiento y el costo de su aplicación. Para obtener más información sobre el uso de EC2 Fleet, visite esta página. Para obtener más información sobre el uso de Spot Fleet, visite esta página.

AWS presenta la evaluación de ubicación de spot de Amazon EC2 para ayudarle a encontrar la ubicación óptima para sus cargas de trabajo de spot. La disponibilidad de las instancias de spot varía en función del tipo de instancias, la hora del día, la región y la zona de disponibilidad. Hasta ahora no había forma de encontrar una región o zona de disponibilidad óptima para satisfacer las necesidades de capacidad de spot sin intentar lanzar primero instancias de spot en ellas. Ahora, la evaluación de ubicación de spot puede recomendar una región o zona de disponibilidad en función de sus necesidades de capacidad de spot. La evaluación de ubicación de spot es útil para las cargas de trabajo flexibles de tipo instancias que se pueden lanzar en cualquier región o zona de disponibilidad.

Para comenzar, diríjase a la pantalla de evaluación de la ubicación de spot en la consola de spot de EC2. Solo tiene que especificar la cantidad de capacidad de Spot que desea solicitar, cuáles son sus requisitos de tipo de instancias y si desea una recomendación para una región o una sola zona de disponibilidad. Para los requisitos de tipo de instancias, puede proporcionar una lista de tipos de instancias, o puede especificar simplemente los atributos que deben tener las instancias, como el número de vCPU y la cantidad de memoria. Recibirá una puntuación para cada región o zona de disponibilidad en una escala del 1 al 10, basándose en factores como los tipos de instancias solicitadas, la capacidad de destino, las tendencias históricas y actuales de uso de spot y la hora de la solicitud. La puntuación refleja la probabilidad de éxito a la hora de aprovisionar la capacidad de spot, donde un 10 significa que la solicitud tiene una alta probabilidad de éxito. Tenga en cuenta que la evaluación de ubicación de spot es solamente una recomendación y que ninguna evaluación garantiza que la solicitud de spot se cumpla total o parcialmente.

Puede utilizar la evaluación de ubicación de spot a través de la consola de spot de EC2, AWS CLI o SDK. Para obtener más información sobre la evaluación de ubicación de spot, consulte la documentación sobre la evaluación de ubicación de spot y la publicación del blog.

Ahora puede definir un comportamiento de corte para las tareas de mantenimiento mediante AWS Systems Manager Maintenance Windows, que le permite detener o continuar las tareas en curso cuando se alcanza la hora de corte. Esto proporciona a los ingenieros de DevOps y de TI un mayor control sobre el comportamiento de corte para garantizar que las tareas perturbadoras no se ejecuten fuera del período deseado. Por ejemplo, ahora se puede configurar el comportamiento de corte para cancelar las tareas en curso al registrar una tarea de automatización con una ventana de mantenimiento. Esto garantizaría que no hay nuevas invocaciones de tareas cuando se alcanza la hora de corte.

Para comenzar, abra la consola de AWS Systems Manager y, en el panel de navegación, seleccione Maintenance Windows (Ventanas de mantenimiento). A continuación, habilite el corte de invocación de nuevas tareas mientras define una nueva tarea de la ventana de mantenimiento.

Esta característica está disponible en todas las regiones de AWS que son compatibles con Systems Manager, excluyendo la de China (Pekín), operada por Sinnet y la de China (Ningxia), operada por NWCD. Los clientes pueden utilizar esta característica sin cargo adicional. Para obtener más detalles sobre las ventanas de mantenimiento, visite la página del producto de AWS Systems Manager y la documentación.

Amazon DocumentDB (compatible con MongoDB) es un servicio de base de datos creado específicamente para la administración de datos JSON a escala, completamente administrado e integrado con AWS y ofrece alta durabilidad a empresas.

Hoy, Amazon DocumentDB anunció un controlador de JDBC que le permite conectarse a herramientas de inteligencia empresarial, tales como Tableau, MicroStrategy y QlikView. Los clientes también pueden utilizar el controlador de JDBC para ejecutar consultas SQL de su clúster de Amazon DocumentDB desde herramientas como SQLWorkbench. Los clientes pueden descargar el controlador aquí. El controlador de JDBC de DocumentDB es de código abierto y también está disponible para la comunidad de usuarios en conformidad con la licencia Apache 2.0 en GitHub. Los clientes pueden utilizar el repositorio de GitHub para obtener una visibilidad mejorada de la implementación del controlador y contribuir a su desarrollo.

Para obtener más información sobre cómo utilizar el controlador, consulte Utilizar el controlador de JDBC de DocumentDB. Si es nuevo en Amazon DocumentDB, la guía de introducción mostrará como aprovisionar rápidamente un clúster Amazon DocumentDB y explorar la flexibilidad del modelo de documentos. 

Amazon CloudFront ahora proporciona un encabezado CloudFront-Viewer-Address que incluye información sobre la dirección IP y el puerto de conexión para los clientes que la requieren. El campo del puerto de conexión indica el puerto fuente TCP que utiliza el cliente solicitante. Anteriormente, la información sobre la dirección IP y el puerto de conexión del cliente solo estaba disponible en los registros de acceso de CloudFront, lo que dificultaba la resolución de problemas o la toma de decisiones en tiempo real en función de estos datos. Ahora, puede configurar las políticas de solicitud de origen de CloudFront para reenviar el encabezado CloudFront-Viewer-Address a los servidores de origen. El encabezado también se puede utilizar en funciones de CloudFront cuando se incluyen en una política de solicitud de origen. El encabezado CloudFront-Viewer-Address utiliza la siguiente sintaxis: CloudFront-Viewer-Address: 127.0.0.1:4430

El encabezado de CloudFront-Viewer-Address se proporciona sin costo adicional. Puede utilizar el encabezado, junto con otros encabezados de CloudFront, para fines de análisis, auditoría y registro. A fin de obtener más información sobre cómo utilizar el encabezado de CloudFront-Viewer-Address, consulte la Guía para desarrolladores de CloudFront. Obtenga más información sobre las políticas de solicitud de origen y memoria caché en nuestro blog. Para obtener más información acerca de Amazon CloudFront, visite nuestra página de productos de CloudFront.

AWS Load Balancer Controller proporciona una forma nativa de Kubernetes para configurar y administrar los balanceadores de carga elásticos que enrutan el tráfico a aplicaciones que se ejecutan en clústeres de Kubernetes. Elastic Load Balancing ofrece cuatro tipos de balanceadores de carga que cuentan con el nivel necesario de alta disponibilidad, escalado automático y seguridad sólida para que sus aplicaciones sean tolerantes a errores.

La versión 2.3 de AWS Load Balancer Controller para Kubernetes ya está disponible. Esta actualización agrega múltiples mejoras para facilitar el enrutamiento del tráfico a sus aplicaciones utilizando balanceadores de carga elástico entre las que se que incluyen:

  • Compatibilidad con el grupo de destino IPv6 para los balanceadores de carga de aplicaciones.
  • Optimizaciones de la administración de reglas de grupos de seguridad que reducen el número total de reglas de grupos de seguridad necesarias cuando se utilizan varios balanceadores de carga por clúster. 
  • Mayor rendimiento en clústeres de gran tamaño gracias a la compatibilidad con Kubernetes Endpoint Slices.
  • Compatibilidad con la especificación de los atributos del balanceador de carga de red, incluida la protección contra la eliminación.
  • Compatibilidad con la especificación de atributos del balanceador de carga de aplicaciones mediante IngressClassParams.
  • Detección automática de subredes en función de las direcciones IP disponibles.

Puede encontrar más información sobre los parámetros de configuración del controlador y los valores predeterminados aquí y aquí. Para comenzar a usar AWS Load Balancer Controller, consulte la guía de instalación y el tutorial en GitHub. Para obtener más información sobre Amazon EKS, vaya a la página del producto o consulte la documentación.

Importante
Amazon EKS no es compatible con IPv6. Puede seguir el desarrollo de esta característica suscribiéndose a la sección de compatibilidad de EKS con IPv6 en el plan de desarrollo de los contenedores. 

Amazon WorkSpaces ahora ofrece API que puede utilizar para mantener sus imágenes de WorkSpaces actualizadas con los últimos controladores de AWS. Anteriormente, las imágenes de WorkSpaces se actualizaban lanzando manualmente una instancia de WorkSpaces, instalando las actualizaciones de los controladores y creando una nueva imagen. Gracias a este lanzamiento, puede utilizar las API de WorkSpaces para saber si los últimos controladores de AWS están disponibles para sus imágenes, instalar esas actualizaciones y crear imágenes actualizadas. Una vez creada la nueva imagen, puede probarla antes de actualizar los paquetes de producción o compartir la imagen con otras cuentas de AWS. La actualización de sus WorkSpaces con los últimos controladores de AWS le permite aprovechar los beneficios de los últimos tipos de instancias y otros componentes de infraestructura que ofrece AWS.

Esta API ya está disponible en todas las Regiones de AWS en las que Amazon WorkSpaces está disponible.

El uso de esta API no tiene ningún costo adicional y se habilita automáticamente para usted. Para más información, consulte CreateUpdatedWorkspaceImage en la referencia del API de Amazon WorkSpaces.

Las pruebas de carga distribuida en AWS es una solución que automatiza las pruebas de aplicaciones de software a escala y en carga para ayudarle a identificar posibles problemas de rendimiento antes de su lanzamiento. Crea y simula miles de usuarios conectados que generan registros transaccionales a un ritmo constante sin la necesidad de aprovisionar servidores.

La solución actualizada incluye la posibilidad de ver los datos de pruebas anteriores. Los datos incluyen la configuración de las pruebas, los datos de las pruebas y el historial de resultados visualizados a través de los paneles de control de Amazon CloudWatch. La actualización también incluye compatibilidad para utilizar su Amazon Virtual Private Cloud (Amazon VPC) existente y lanza las tareas de AWS Fargate en múltiples zonas de disponibilidad. Por último, la actualización incluye el código fuente del kit de desarrollo de la nube de AWS (AWS CDK) para generar la plantilla de AWS CloudFormation y es compatible con el acceso a la imagen del contenedor de la solución desde el repositorio público de imágenes Elastic Container Registry administrado por AWS.

Además, se encuentran disponibles otras ofertas de implementaciones de soluciones de AWS en la página de soluciones de AWS, donde los clientes pueden buscar preguntas comunes ordenadas por categorías para encontrar respuestas en forma de resúmenes de soluciones o implementaciones de soluciones completas, es decir, implementaciones de referencia listas para usar, automatizadas y autorizadas por AWS, que abordan necesidades empresariales específicas.

Hoy, Amazon EC2 Auto Scaling anunció la capacidad para describir grupos de Auto Scaling mediante etiquetas. El filtrado basado en etiquetas facilita la visualización y administración de sus grupos de Auto Scaling en función de las etiquetas que le interesen. Cada etiqueta es una marca sencilla que consiste en una clave definida por el cliente y un valor opcional.

Por ejemplo, puede contar con varios grupos de Auto Scaling que etiquete de manera que indiquen el entorno del que forman parte (p. ej., utilizando la clave “entorno”, cuyo valor puede ser “desarrollo”, “pruebas” o “producción”). Antes, podía determinar qué grupos contaban con la etiqueta “environment:prod” al llamar primero a la API describe-tags, y luego describir los grupos de Auto Scaling que se mostraban. Ahora puede llamar directamente a la API describe-auto-scaling-groups y filtrarlos por la etiqueta “environment:prod”.

Esta característica está disponible a través de los SDK de AWS y la interfaz de línea de comandos (CLI) de AWS. Amazon EC2 Auto Scaling está disponible en todas las regiones de AWS públicas y en regiones de AWS GovCloud (EE. UU.). Para obtener más información sobre esta característica, visite esta documentación de AWS.

AWS Instance Scheduler es una solución que le ayuda a controlar el costo de los recursos de AWS mediante la configuración de horarios de inicio y detención para las instancias de Amazon Elastic Compute Cloud (instancias bajo demanda de Amazon EC2) y Amazon Relational Database Service (Amazon RDS).

Además, contribuye a la reducción de los costos operativos al poner en marcha y detener los recursos en función de horarios predefinidos. Por ejemplo, una empresa puede utilizar AWS Instance Scheduler para iniciar y detener automáticamente las instancias en función de una programación predefinida. En caso de que sepa cuándo se necesitan los clústeres EC2/RDS/Aurora (p. ej., de 9.00 h a 17.00 h de lunes a viernes), puede definir un horario y etiquetar los recursos con el nombre del horario. El programador de instancias utilizará las programaciones para iniciar y detener las instancias utilizando los Runbooks de SSM Automation. Esto ayudará a reducir el costo de los recursos haciendo que las instancias solo estén disponibles cuando lo desee. Esta solución también simplifica la administración de recursos en varias regiones y cuentas mediante plantillas de CloudFormation. Una sola pila en una cuenta principal puede programar instancias en varias regiones y cuentas utilizando AWS Systems Manager Automations.

La solución actualizada incluye documentos personalizados de AWS Systems Manager, que se pueden utilizar en la consola de AWS Systems Manager para iniciar y detener instancias EC2/RDS utilizando asociaciones del administrador de estados.

Además, se encuentran disponibles otras ofertas de implementaciones de soluciones de AWS en la página de soluciones de AWS, donde los clientes pueden buscar preguntas comunes ordenadas por categorías para encontrar respuestas en forma de resúmenes de soluciones o implementaciones de soluciones completas, es decir, implementaciones de referencia listas para usar, automatizadas y autorizadas por AWS, que abordan necesidades empresariales específicas.

 

En CLOUDAWS somos Sysops y Administradores especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

Read more...
Subscribe to this RSS feed

CONTACTE CON CLOUDAWS: PARTNER AWS

Teléfono:

902 727 350

Web:

Formulario de contacto

Email:

javier.root@cloudaws.es