Lanzamiento de AWS Elemental Inference
AWS Elemental Inference ya está disponible de forma general. Es un servicio de inteligencia artificial (IA) completamente administrado que permite a emisores y plataformas de streaming generar automáticamente contenido vertical y clips de momentos destacados para plataformas móviles y sociales en tiempo real. El servicio aplica las capacidades de inteligencia artificial al video en directo y bajo demanda, en paralelo con la codificación, y ayuda a las empresas y a los creadores a llegar al público en cualquier formato sin necesidad de contar con experiencia en IA ni de equipos de producción especializados.
Con Elemental Inference puedes procesar el video una vez y optimizarlo para todas las plataformas, creando transmisiones principales y generando simultáneamente versiones verticales para TikTok, Instagram Reels, YouTube Shorts, Snapchat y otras plataformas móviles en paralelo con el video en directo. Por ejemplo, las emisoras deportivas pueden generar automáticamente clips de momentos destacados verticales durante los partidos en directo y distribuirlos en las plataformas sociales en tiempo real, capturando los momentos virales a medida que ocurren, en lugar de horas después.
El servicio se lanza con dos características de inteligencia artificial: el recorte vertical de video, que transforma las transmisiones en directo y bajo demanda en formatos optimizados para dispositivos móviles, y el análisis avanzado de metadatos, que identifica los momentos clave para generar clips de momentos destacados a partir del contenido en directo. Al utilizar una aplicación de IA agéntica que no requiere peticiones ni intervención humana, las emisoras pueden escalar la producción de contenido sin añadir flujos de trabajo manuales ni personal de producción; el sistema adapta automáticamente el contenido a cada plataforma. En las pruebas beta, las grandes empresas de medios lograron un ahorro del 34 % o más en los flujos de trabajo de video en directo basado en IA en comparación con el uso de múltiples soluciones puntuales.
AWS Elemental Inference está disponible en las siguientes regiones de AWS: Este de EE. UU. (norte de Virginia), oeste de EE. UU. (Oregón), Asia-Pacífico (Mumbai) y Europa (Irlanda).
Para obtener más información, visite el blog AWS News o consulte la documentación de AWS Elemental Inference.
AWS AppConfig se integra con New Relic para realizar reversiones automatizadas
AWS AppConfig lanzó hoy una nueva integración que permite realizar reversiones automatizadas e inteligentes durante las implementaciones de configuraciones dinámicas y indicadores de características mediante la automatización del flujo de trabajo de New Relic. Basándose en la capacidad de alertas de terceros de AWS AppConfig, esta integración proporciona a los equipos que utilizan New Relic una solución para detectar automáticamente el deterioro del estado de las aplicaciones y activar las reversiones en segundos, lo que elimina la intervención manual.
Al implementar indicadores de características mediante la estrategia de implementación gradual de AWS AppConfig, la extensión New Relic de AWS AppConfig monitorea continuamente el estado de la aplicación en función de las condiciones de alerta configuradas. Si se detectan problemas durante la actualización y la implementación de un indicador de características, como un aumento de las tasas de error o una latencia elevada, el flujo de trabajo de New Relic envía automáticamente una notificación para activar una reversión inmediata y revertir el indicador de característica a su estado anterior. Esta automatización de ciclo cerrado reduce el tiempo entre la detección y la corrección de minutos a segundos, lo que minimiza el impacto en los clientes durante las implementaciones fallidas.
Esta característica está disponible en todas las regiones de AWS, incluidas las regiones de AWS GovCloud (EE. UU.). Para empezar, utilice la Guía de introducción de AWS AppConfig o infórmese sobre la reversión automática (automatic rollback) de AWS AppConfig.
Las políticas de razonamiento automatizado ahora incluyen referencias al documento fuente.
AWS anuncia el lanzamiento de referencias de documentos fuente para las políticas de razonamiento automatizado, lo que simplifica la tarea de revisar y perfeccionar una política de razonamiento automatizado. Las comprobaciones del razonamiento automatizado utilizan técnicas de verificación formales para validar que el contenido generado por los modelos fundacionales cumpla con una política de razonamiento automatizado. Las comprobaciones del razonamiento automatizado ofrecen una precisión de hasta el 99 % a la hora de detectar las respuestas correctas de los LLM. Esto le da una seguridad demostrable a la hora de detectar las alucinaciones de la IA y, además, ayuda a detectar ambigüedades en las respuestas de los modelos.
Para crear políticas de razonamiento automatizado, los usuarios cargan documentos que describen las reglas en un dominio del conocimiento, como las políticas de recursos humanos o las pautas de aprobación de transacciones financieras. Estos documentos se traducen en una colección de reglas y variables lógicas formales denominada política de razonamiento automatizado. Con las referencias a los documentos fuente, los usuarios ahora pueden revisar las reglas y variables de política generadas mediante referencias a contenido del documento original que ya conocen.
La generación de pruebas para las comprobaciones de razonamiento automatizado ya está disponible en las regiones de AWS este de EE. UU. (Virginia), este de EE. UU. (Ohio) Europa (Fráncfort), Europa (Irlanda) y Europa (París). Los clientes pueden acceder al servicio a través de la consola de Amazon Bedrock, así como del SDK de Python para Amazon Bedrock.
Para obtener más información sobre las comprobaciones del razonamiento automatizado y cómo puede integrarlas en sus flujos de trabajo de IA generativa, lea la documentación de Amazon Bedrock, consulte los tutoriales del blog de IA de AWS y visite la página web de las barreras de protección de Bedrock.
AWS Certificate Manager actualiza la validez predeterminada de los certificados para cumplir con las nuevas directrices
A partir de ahora, los certificados públicos emitidos por AWS Certificate Manager (ACM) tienen un período de validez máximo de 198 días, en comparación con el período de validez anterior de 395 días. Con este cambio, los certificados públicos emitidos por ACM cumplirán con el nuevo mandato del foro Certification Authority Browser (CA/Browser) que establece que los certificados no deben durar más de 200 días a partir del 15 de marzo de 2026.
No es necesario que los clientes realicen ninguna acción para recibir este cambio. Todos los certificados públicos nuevos y renovados tendrán una validez predeterminada de 198 días. Los certificados existentes con una validez de 395 días siguen siendo válidos y se pueden utilizar hasta que se renueven o caduquen. Todas las demás funciones del certificado permanecen sin cambios. ACM seguirá renovando automáticamente los certificados antes de que caduquen. Los certificados ahora se renuevan 45 días antes de su vencimiento. Los certificados con una validez de 398 días existentes se renovarán 60 días antes de su caducidad y se renovarán con un período de validez de 198 días.
Hemos reducido los precios de los certificados públicos exportables de ACM de acuerdo con el período de validez más corto. El certificado público exportable de 198 días ahora costará 7 USD por nombre de dominio totalmente cualificado (antes 15 USD) y 79 USD por nombre comodín (antes 149 USD). Consulte la página de precios de ACM para obtener más información. Para obtener más información sobre ACM, consulte la documentación de ACM.
Amazon OpenSearch Service amplía la compatibilidad con las instancias de Graviton4 (c8g, m8g y r8g)
Amazon OpenSearch Service amplía la compatibilidad con las familias de instancias Amazon EC2 de última generación basadas en Graviton4. Estos nuevos tipos de instancias están optimizadas para la computación (c8g), son de uso general (m8g) o están optimizadas para la memoria (r8g, r8gd).
Los procesadores AWS Graviton4 ofrecen un rendimiento hasta un 30 % superior al de los procesadores AWS Graviton3 con instancias c8g, m8g y r8g y r8gd, que ofrecen la mejor relación precio-rendimiento para cargas de trabajo con uso intensivo de computación, uso general y uso intensivo de memoria, respectivamente. Para obtener más información sobre las mejoras de Graviton4, consulte el blog sobre las instancias r8g y el blog sobre las instancias c8g y m8g.
Las instancias Graviton4 de Amazon OpenSearch Service son compatibles con todas las versiones de OpenSearch y las versiones 7.9 y 7.10 de Elasticsearch (código abierto).
Además de las regiones ya compatibles, ahora hay uno o más tipos de instancias de Graviton4 disponibles en las siguientes regiones: Asia-Pacífico (Hong Kong), Asia-Pacífico (Hyderabad), Asia-Pacífico (Yakarta), Asia-Pacífico (Melbourne), Asia-Pacífico (Osaka), Asia-Pacífico (Tailandia), Europa (Milán), Europa (París), Europa (Zúrich), Oriente Medio (Emiratos Árabes Unidos), AWS GovCloud (oeste de EE. UU.) y AWS GovCloud (este de EE. UU.).
Para conocer la disponibilidad y los precios específicos de la región, visite nuestra página de precios. Para obtener más información sobre Amazon OpenSearch Service y sus capacidades, visite la página del producto.
El refinamiento por refuerzo de Amazon Bedrock suma compatibilidad con modelos de ponderación abierta con API compatibles con OpenAI
Amazon Bedrock ahora amplía la compatibilidad con el refinamiento por refuerzo (RFT) a los modelos populares de peso abierto, incluidos los modelos OpenAI GPT-OSS y Qwen, e introduce API de refinamiento compatibles con OpenAI. Estas capacidades facilitan a los desarrolladores la mejora de la precisión de los modelos de peso abierto sin necesidad de una profunda experiencia en machine learning ni de grandes volúmenes de datos etiquetados. El refinamiento por refuerzo en Amazon Bedrock automatiza el flujo de trabajo de personalización de principio a fin, lo que permite a los modelos aprender de los comentarios sobre múltiples respuestas posibles mediante un conjunto reducido de peticiones, en lugar de los grandes conjuntos de datos de entrenamiento tradicionales. El refinamiento por refuerzo permite que los clientes utilicen variantes de modelo más pequeñas, rápidas y rentables, a la vez que mantienen una alta calidad.
Las organizaciones suelen tener dificultades para adaptar los modelos básicos a sus requisitos empresariales únicos, lo que obliga a hacer concesiones entre modelos genéricos con un rendimiento limitado y procesos de personalización complejos y costosos que requieren infraestructura y experiencia especializadas. Amazon Bedrock elimina esta complejidad al proporcionar una experiencia de refinamiento por refuerzo segura y completamente administrada. Los clientes definen las funciones de recompensa utilizando evaluadores verificables basados en reglas o jueces basados en inteligencia artificial, que incluyen plantillas integradas tanto para tareas objetivas, como la generación de código y el razonamiento matemático, como para tareas subjetivas, como el seguimiento de las instrucciones o la calidad de la conversación. Durante la capacitación, los clientes pueden usar las funciones de AWS Lambda para la lógica de calificación personalizada y acceder a los puntos de control del modelo intermedio para evaluar, depurar y seleccionar el modelo con mejor rendimiento, lo que mejora la velocidad de iteración y la eficiencia del entrenamiento. Todos los datos patentados permanecen en el entorno seguro y gobernado de AWS durante todo el proceso de personalización.
Los modelos compatibles en este lanzamiento son: qwen.qwen3-32b y openai.gpt-oss-20b. Una vez finalizado el refinamiento, los clientes pueden utilizar inmediatamente el modelo perfeccionado resultante para realizar inferencias bajo demanda a través de las API compatibles con OpenAI de Amazon Bedrock (API de respuestas y API de finalización de chat), sin ningún paso de implementación adicional. Para obtener más información, consulte la documentación de Amazon Bedrock.
AWS HealthImaging lanza métricas adicionales para monitorear los almacenes de datos
AWS HealthImaging ha lanzado métricas adicionales a través de Amazon CloudWatch que permiten monitorear el almacenamiento a nivel de cuenta y almacén de datos. Estas nuevas métricas ayudan a los clientes a comprender mejor sus tendencias de almacenamiento y crecimiento de imágenes médicas a lo largo del tiempo.
HealthImaging ahora proporciona a los clientes métricas detalladas de CloudWatch para monitorear sus almacenes de datos. Los clientes pueden realizar un seguimiento del almacenamiento por volumen, cantidad de conjuntos de imágenes y cantidad de estudios, series e instancias DICOM. Estas métricas proporcionan la información necesaria para administrar las cargas de trabajo de un solo usuario y de varios usuarios a escala de petabytes. Para obtener más información, visite Uso de Amazon CloudWatch con HealthImaging.
AWS HealthImaging es un servicio que cumple con los requisitos de la Ley de Responsabilidad y Portabilidad de Seguros Médicos (HIPAA) y que permite a los proveedores de servicios de salud y a sus socios de software almacenar, analizar y compartir imágenes médicas. AWS HealthImaging ya está disponible de forma general en las siguientes regiones de AWS: este de EE. UU. (norte de Virginia), oeste de EE. UU. (Oregón), Asia-Pacífico (Sídney) y Europa (Irlanda).
Amazon EC2 admite la virtualización anidada en instancias virtuales de Amazon EC2
A partir de hoy, los clientes pueden crear entornos anidados en instancias de Amazon EC2 virtualizadas. Anteriormente, los clientes solo podían crear y administrar máquinas virtuales dentro de instancias bare metal de EC2. Con este lanzamiento, los clientes pueden crear máquinas virtuales anidadas mediante la ejecución de KVM o Hyper-V en instancias virtuales de EC2. Los clientes pueden aprovechar esta capacidad para casos de uso como la ejecución de emuladores para aplicaciones móviles, la simulación de hardware de vehículos para automóviles y la ejecución del subsistema de Windows para Linux en estaciones de trabajo de Windows.
Esta capacidad está disponible en todas las regiones comerciales para las instancias C8i, M8i y R8i. Para obtener más información sobre cómo habilitar las extensiones de virtualización de hardware en su entorno, consulte la documentación de virtualización anidada de Amazon EC2.
Anunciamos las nuevas instancias M8azn de uso general de Amazon EC2
AWS anuncia la disponibilidad general de las nuevas instancias M8azn de Amazon EC2, instancias de uso general de alta frecuencia y alto rendimiento de red equipadas con procesadores EPYC (anteriormente denominados en código Turin) de AMD de quinta generación, que ofrecen la frecuencia máxima de CPU más alta, 5 GHz en la nube. Las instancias M8azn ofrecen hasta el doble de rendimiento de computación en comparación con las instancias M5zn de la generación anterior y hasta un 24 % más de rendimiento que las instancias M8a.
Las instancias M8azn ofrecen un ancho de banda de memoria hasta 4,3 veces mayor y una caché L3 10 veces mayor en comparación con las instancias M5zn, lo que permite que las cargas de trabajo sensibles a la latencia y con uso intensivo de computación logren resultados más rápido. Estas instancias también ofrecen hasta el doble de rendimiento de red y hasta el triple de rendimiento de EBS en comparación con las instancias M5zn. Estas instancias, basadas en AWS Nitro System y que usan la sexta generación de tarjetas Nitro, son ideales para aplicaciones como el análisis financiero en tiempo real, la computación de alto rendimiento, trading de alta frecuencia (HFT), las CI/CD, los juegos intensivos y el modelado de simulación para los sectores automotor, aeroespacial, energía y telecomunicaciones. Las instancias M8azn cuentan con una proporción de memoria por CPU virtual de 4:1 y están disponibles en 9 tamaños, que van desde 2 a 96 vCPU con hasta 384 GiB de memoria, incluidas dos variantes bare metal.
Las instancias M8azn ahora están disponibles en las siguientes regiones de AWS: Este de EE. UU. (Norte de Virginia), oeste de EE. UU. (Oregón), Asia-Pacífico (Tokio) y Europa (Fráncfort). Los clientes pueden comprar estas instancias a través de Savings Plans, instancias bajo demanda e instancias de spot. Para comenzar, inicie sesión en la Consola de administración de AWS. Para obtener más información, visite la página de las instancias M8azn de Amazon EC2.
AWS Backup agrega copias de instantáneas de bases de datos entre regiones a almacenes aislados lógicamente
AWS Backup ahora admite copias de instantáneas de bases de datos de una sola acción en almacenes aislados lógicamente en todas las regiones de AWS. Esta capacidad está disponible para las instantáneas de Amazon Aurora, Amazon Neptune y Amazon DocumentDB, lo que evita la necesidad de un paso de copia intermedio en las regiones de destino.
Puede realizar copias instantáneas entre regiones y cuentas para protegerse contra incidentes como los eventos de ransomware y las interrupciones regionales que podrían afectar a sus cuentas de producción o regiones principales. Anteriormente, esto requería un proceso de dos pasos: primero, copiar las instantáneas a la región de destino en un almacén de respaldo y, a continuación, copiarlas al almacén aislado lógicamente en la misma región. Ahora, puede completar esto en un solo paso, lograr objetivos de punto de recuperación (RPO) más rápido y, al mismo tiempo, eliminar los costos asociados con las copias intermedias. Este proceso simplificado también elimina la necesidad de utilizar scripts personalizados o funciones de AWS Lambda para monitorear el estado de las copias intermedias.
Esta característica está disponible para Amazon Aurora, Amazon Neptune y Amazon DocumentDB, en todas las regiones en las que AWS Backup admite estas bases de datos y almacenes aislados lógicamente. Puede empezar a utilizar esta característica hoy mismo a través de la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS o los SDK de AWS. Para empezar, consulte la documentación de AWS Backup.
En CLOUDAWS somos Partner AWS y Devops especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.

