El servicio de barreras de protección de Amazon Bedrock anuncia la imposición basada en políticas para una IA responsable
El servicio de barreras de protección de Amazon Bedrock anuncia capacidades de imposición basadas en políticas de Identity and Access Management (IAM) para crear aplicaciones de IA generativa seguras a escala. Esta nueva característica permite que los clientes apliquen barreras de protección específicas para las llamadas de inferencia de modelos. De este modo, se garantiza que se apliquen políticas de IA responsable en todas las interacciones de la IA. El servicio de barreras de protección de Bedrock ofrece medidas de seguridad configurables para detectar y filtrar contenido no deseado, filtrar temas para definir y prohibir temas específicos, filtrar información confidencial para redactar información de identificación personal (PII), filtrar y bloquear palabras específicas, y detectar alucinaciones de modelos al descubrir la base y la relevancia de las respuestas del modelo. Además, permite identificar, corregir y explicar las afirmaciones fácticas en las respuestas del modelo mediante comprobaciones del razonamiento automatizado. Las barreras de protección se pueden aplicar en cualquier modelo fundacional, incluidos los alojados en Amazon Bedrock, los autohospedados y los de terceros fuera de Bedrock que utilizan la API ApplyGuardrail. De esta manera, se ofrece una experiencia de usuario uniforme y se estandarizan los controles de seguridad y privacidad.
A partir de hoy, el servicio de barreras de protección de Bedrock ofrece una nueva clave de condición bedrock:GuardrailIdentifier que se puede usar en las políticas de IAM para imponer el uso de barreras de protección específicas con políticas asociadas. Esta nueva clave de condición se puede aplicar a todas las API Invoke y Converse de Bedrock. Si la barrera de protección configurada en su política de IAM no coincide con la barrera de protección especificada, se rechazará la solicitud. De este modo, se garantiza el cumplimiento de las políticas de IA responsables de la organización.
La imposición basada en políticas de IAM para cumplir con las políticas de IA responsable ya está disponible en todas las regiones de AWS en las que actualmente se admiten las barreras de protección de Bedrock.
Para obtener más información, consulte la documentación técnica y la página del producto Barreras de protección de Bedrock.
Compatibilidad de Terraform con AWS Parallel Computing Service
Lanzada la compatibilidad de Terraform con AWS Parallel Computing Service (PCS). Los clientes ahora pueden usar Terraform para crear y administrar sus clústeres de PCS.
PCS facilita la ejecución y el escalado de las cargas de trabajo de computación de alto rendimiento (HPC) y la creación de modelos científicos y de ingeniería en AWS mediante Slurm. PCS ya admite la administración de sus entornos de HPC a través de la Consola de administración de AWS, la interfaz de la línea de comandos (CLI) de AWS, AWS CloudFormation y las API de AWS. Con esta versión, los clientes ahora pueden definir e implementar su infraestructura de PCS mediante la herramienta de infraestructura como código (IaC) de HashiCorp Terraform y administrar los clústeres a través de sus flujos de trabajo de Terraform existentes. Esta integración se habilita a través del proveedor de control en la nube de AWS de Terraform.
Para comenzar a usar Terraform con PCS, consulte un ejemplo de receta de implementación de PCS, así como la documentación del proveedor Terraform. Para obtener más información sobre PCS en general, consulte la documentación del servicio.
La versión 2025.03 de Research and Engineering Studio en AWS ya está disponible
Lanzada la versión 2025.03 de Research and Engineering Studio (RES) en AWS. Esta versión presenta el panel de costos de RES, admite listas de instancias personalizadas por pila de software, amplía la compatibilidad con la hibernación a los escritorios virtuales de Linux y admite los escritorios virtuales que ejecutan Windows 10 y 11.
Los administradores ahora tienen acceso al panel de costos de RES, que ofrece una descripción general de los costos de la infraestructura de escritorio virtual (VDI) en el proyecto. Use el panel de costos para obtener una visión general del progreso presupuestario de cada proyecto y ver datos relacionados con el gasto histórico.
RES 2024.08 introdujo la capacidad de modificar la lista de tipos de instancias de VDI permitidos en el entorno. Esta versión perfecciona esa característica al autorizar que los administradores asignen cualquier subconjunto de instancias permitidas a pilas de software específicas. La asignación de estas pilas de software a los proyectos permite limitar las instancias disponibles para las VDI en los proyectos.
RES 2025.03 también amplía la compatibilidad con la hibernación a todas las distribuciones de Linux admitidas y ahora admite el lanzamiento de la VDI con Windows 10 y 11. Las pilas de software ahora tienen una configuración adicional para ejecutar la VDI con una instancia compartida, dedicada o una tenencia de host dedicado para cumplir con los requisitos de licencia. Por último, ha regresado la capacidad de crear una pila de software a partir de una sesión en ejecución. Utilícela como alternativa al creador de imágenes de Amazon EC2 para agilizar la creación de pilas de software e imágenes de software personalizadas.
Consulte la página de disponibilidad regional para obtener una lista de las regiones en las que RES está disponible.
Consulte las notas adicionales de la versión en Github para empezar a implementar RES 2025.03.
IonQ Forte Enterprise ya está disponible en Amazon Braket
Amazon Braket, el servicio de computación cuántica de AWS, ahora ofrece la última unidad de procesamiento cuántico (QPU) Forte Enterprise de 36 cúbits de IonQ en la región este de EE. UU. (norte de Virginia). Este nuevo dispositivo se une a la cartera de hardware cuántico existente de IonQ en Braket, que incluye Forte-1, Aria-1 y Aria-2, lo que brinda a los clientes capacidad adicional para ejecutar sus cargas de trabajo cuánticas en dispositivos con trampas de iones.
Con este lanzamiento, los clientes pueden usar el conocido SDK y las API de Braket para acceder a Forte Enterprise, que mantiene las mismas capacidades que los clientes valoran en Forte-1. El dispositivo cuenta con algoritmos de mitigación de errores de desvío y mejora de IonQ para habilitar las cargas de trabajo de los clientes avanzados. Forte Enterprise sigue utilizando la arquitectura nativa de ZZ Gate, lo que facilita que los clientes hagan la migración de las cargas de trabajo sin inconvenientes entre los dispositivos Forte.
IonQ Forte Enterprise se encuentra físicamente en Suiza, pero todo el tráfico de los clientes pasa por la región de AWS este de EE. UU. (norte de Virginia). Los clientes pueden acceder a este nuevo dispositivo mediante el nombre de recurso de Amazon (ARN): arn:aws:braket:us-east-1::device/qpu/ionq/Forte-Enterprise-1.
Para empezar a usar IonQ Forte Enterprise, visite la página de dispositivos Amazon Braket en la Consola de administración de AWS para explorar las especificaciones y capacidades de los dispositivos. Para obtener más información, consulte la documentación de Amazon Braket y la información de precios para aprovechar al máximo este nuevo dispositivo.
El LLM como juez de la evaluación del modelo de Amazon Bedrock ya está disponible de forma general
La capacidad de LLM como juez de la evaluación del modelo de Amazon Bedrock ya está disponible de forma general. La evaluación del modelo de Amazon Bedrock le permite probar, comparar y seleccionar los modelos adecuados para su caso de uso. Puede elegir un LLM como juez entre varios disponibles en Bedrock para asegurarse de tener la combinación correcta de modelos evaluadores y modelos que se están evaluando. Puede seleccionar métricas de calidad, como la corrección, la integridad y el estilo y tono profesionales, así como métricas de IA responsable, por ejemplo la nocividad y el rechazo de respuestas. Puede evaluar todos los modelos disponibles en Amazon Bedrock, incluidos los modelos sin servidor, los modelos de Bedrock Marketplace compatibles con la API Converse, los modelos personalizados y destilados, los modelos importados y los enrutadores de modelos. También puede comparar los resultados entre los trabajos de evaluación.
*Novedad: ¡Más flexibilidad!* Hoy puede evaluar cualquier modelo o sistema alojado en cualquier lugar. Para ello, incorpore las respuestas de inferencia que ya ha obtenido al conjunto de datos de peticiones de entrada para el trabajo de evaluación (“use sus respuestas de inferencia”). Estas respuestas pueden proceder de un modelo de Amazon Bedrock o de cualquier modelo o aplicación alojada fuera de Amazon Bedrock. De este modo, es posible evitar llamar a un modelo de Amazon Bedrock en el trabajo de evaluación e incorporar todos los pasos intermedios de su solicitud en sus respuestas finales.
Con un LLM como juez, puede obtener una calidad de evaluación similar a la humana a un costo menor y, al mismo tiempo, ahorrar semanas.
Para obtener más información, visite la página de evaluaciones y la documentación de Amazon Bedrock. Para empezar, inicie sesión en la Consola de AWS o utilice las API de Amazon Bedrock.
Amazon Nova amplía las opciones de elección de herramientas para la API Converse
Amazon Nova ahora admite opciones ampliadas de parámetros de elección de herramientas en la API Converse, lo que mejora el control que tienen los desarrolladores sobre las interacciones del modelo con las herramientas. En la actualidad, los desarrolladores ya utilizan la API Converse para crear aplicaciones conversacionales sofisticadas, como bots de chat personalizados para mantener las conversaciones en varios turnos. Con esta actualización, Nova agrega compatibilidad con los modos “Cualquiera” y “Herramienta”, además de la compatibilidad existente para el modo “Auto”, lo que permite a los desarrolladores utilizar los tres modos diferentes.
- La opción Auto deja la selección de herramientas a entera discreción de Nova, ya sea para llamar a una herramienta o generar texto. Es útil en casos de uso como los chatbots y los asistentes en los que es posible que tengas que pedir más información al usuario, y es la opción predeterminada actual.
- La opción Cualquiera peticiona a Nova que devuelva al menos una llamada a la herramienta, de la lista de herramientas especificada, a la vez que le permite a Nova elegir qué herramienta usar. Es útil especialmente en las interacciones entre máquinas, en las que los componentes posteriores pueden no entender el lenguaje natural, pero pueden analizar una representación de esquema.
- La opción Herramienta permite a los desarrolladores solicitar que Nova devuelva una herramienta específica. Es particularmente útil para forzar una salida estructurada al tener una herramienta que tiene el tipo de devolución como el esquema de salida deseado.
Para obtener más información sobre la compatibilidad ampliada de los parámetros de elección de herramientas en la API Converse de Amazon Nova, consulte la guía del usuario de Amazon Nova. Obtenga más información sobre los modelos de base de Amazon Nova en la página del producto Amazon Nova. Puede empezar a utilizar los modelos fundacionales de Amazon Nova en Amazon Bedrock desde la consola de Amazon Bedrock.
Amazon CloudWatch RUM ahora admite la supervisión de varios dominios con un único monitor de aplicación
Amazon CloudWatch RUM ahora permite que los clientes supervisen varios dominios de nivel superior (TLD) y dominios de nivel secundario (SLD) mediante un único monitoreo de aplicación que unifica la supervisión de usuarios reales en varios dominios en CloudWatch RUM. Los clientes ahora pueden especificar una lista de dominios y también usar comodines para los TLD a fin de supervisar todas sus aplicaciones de frontend juntas. Esta mejora es útil para las aplicaciones web que necesitan ser accesibles desde diferentes dominios por diversos motivos, como la ubicación de los usuarios, las migraciones de dominios o cualquier otra necesidad de desarrollo.
Además, simplifica la observabilidad de las aplicaciones a las que se accede desde varios dominios al mostrar todos los datos de usuarios reales de la aplicación en un único panel de RUM. Los clientes ahora pueden supervisar diferentes SLD (ejemplo.com y otro.com), sin necesidad de crear monitores independientes para cada dominio. También pueden hacer seguimiento de las aplicaciones implementadas en varios TLD, como ejemplo.com y ejemplo.co.uk. Esto ayuda a supervisar el rendimiento en todas las regiones. La compatibilidad con caracteres comodín para los TLD permite que los clientes tengan una flexibilidad aún mayor para supervisar todas las variantes de un dominio: ejemplo.* o ejemplo.co.*, sin tener que especificar cada una de ellas manualmente. Además, los comodines del subdominio, que ya son compatibles, siguen permitiendo la supervisión en varios subdominios: *.ejemplo.com. Estas capacidades simplifican la supervisión de los sitios web que funcionan en varias regiones, la administración de las transiciones de dominio durante las migraciones de SLD y otras necesidades de desarrollo mediante la consolidación de los datos en un solo lugar.
Esta característica ya está disponible en todas las regiones comerciales de AWS en las que CloudWatch RUM está disponible.
Consulte la documentación para obtener más información sobre la característica o consulte el taller de observabilidad para obtener información sobre cómo empezar a usar CloudWatch RUM.
AWS anuncia nuevas actualizaciones de la extensión del navegador de Amazon Q Business
Hoy, AWS anunció varias actualizaciones de la extensión del navegador de Amazon Q Business para mejorar su utilidad y mejorar la eficiencia de los usuarios a la hora de realizar tareas basadas en navegador. Las actualizaciones incluyen el acceso a los conocimientos de la empresa, la compatibilidad con PDF en línea, la posibilidad de eliminar los archivos adjuntos anteriores del contexto de la conversación, la compatibilidad con archivos de imagen adjuntos y un intervalo ampliado de contexto de peticiones.
Con las nuevas actualizaciones, los usuarios de las extensiones de navegador ahora pueden acceder a las preguntas de una amplia gama de orígenes de datos que incluyen no solo sus páginas web abiertas y documentos adjuntos, sino también los datos indexados de su empresa, los archivos PDF que abren en su navegador y los archivos adjuntos multimodales, como gráficos e imágenes. Los usuarios ahora, además, tienen un mayor control sobre el contexto de las peticiones con la posibilidad de eliminar las páginas web anteriores o los archivos adjuntos que ya no son relevantes del contexto de la conversación.
Con el intervalo ampliado de contexto, los usuarios pueden incorporar páginas web y archivos más grandes junto con peticiones más detalladas para mejorar la utilidad de las respuestas que reciben de Amazon Q. Además, la extensión ofrece un práctico enlace para continuar su trabajo en la experiencia web de Amazon Q Business, donde los usuarios pueden acceder a características útiles como Acciones y Q Apps.
Estas nuevas características están disponibles en la extensión del navegador de Amazon Q Business en todas las regiones en las que este servicio está disponible.
Para obtener más información, visite la página del producto Amazon Q Business o consulte la documentación para obtener instrucciones de configuración detalladas y descripciones de las características.
Administre los periodos de exclusión de SLO mediante CloudWatch Application Signals
Los clientes ahora pueden establecer periodos de exclusión para evitar que se vea afectada la puntuación de fiabilidad de un servicio durante el tiempo de inactividad planificado. Esta característica funciona con los objetivos de nivel de servicio (SLO) que se crean y rastrean mediante CloudWatch Application Signals. Los SLO ayudan a rastrear el rendimiento a largo plazo de los servicios en comparación con los umbrales predefinidos. Los clientes ahora pueden controlar la pausa o la reanudación de sus SLO durante las interrupciones planificadas en CloudWatch Application Signals, una herramienta de monitoreo del rendimiento de las aplicaciones (APM) que simplifica la supervisión del estado y el rendimiento de las aplicaciones alojadas en AWS.
En ocasiones, los clientes necesitan omitir plazos específicos en sus cálculos de presupuesto y estado de SLO debido al mantenimiento programado, como un periodo de mantenimiento periódico de la base de datos. Puede ser un evento único, como un periodo de prueba única, o un evento que se repite, como los horarios no laborales. Con la consola de Application Signals o la plantilla de SLO de CloudFormation, es posible configurar una fecha y hora de inicio, además de una duración o una hora de finalización, para pausar las mediciones de SLO durante un período específico. La nueva característica permite configurar periodos de exclusión para varios SLO a la vez, incluidos los SLO existentes.
Todas las regiones con Application Signals también admiten los periodos de exclusión de SLO. Consulte la documentación para obtener más información sobre los SLO. Los clientes ya pueden suscribirse al nuevo plan de precios combinados para Application Signals. Para obtener más información, consulte los precios de Amazon CloudWatch.
Amazon ECR anuncia la caché de extracción de ECR a ECR
Amazon ECR anuncia la función de caché de extracción de ECR a ECR, una capacidad que permite a los clientes sincronizar automáticamente las imágenes de los contenedores entre dos registros privados de ECR, existentes en todas las regiones o cuentas de AWS. Esto permite que los clientes se beneficien de la latencia reducida que supone extraer imágenes almacenadas en caché dentro de la región. Con la versión de hoy, Amazon ECR facilita a los clientes la optimización de los costos de almacenamiento al proporcionar una forma sencilla y fiable de almacenar copias locales únicamente de las imágenes que se encuentran en distintas regiones o cuentas.
A medida que los clientes crecen, suelen tener implementaciones de contenedores repartidos por varias regiones de AWS. El almacenamiento de imágenes dentro de la región de implementación mejora los tiempos de inicio de las aplicaciones debido a la menor latencia de las extracciones dentro de la región. Para lograrlo, los clientes deben mantener copias de todas las imágenes en cada región, lo que no es rentable, ya que muchas de estas imágenes no están implementadas. La caché de extracción de ECR a ECR permite a los clientes sincronizar imágenes entre los registros de ECR de forma rentable al almacenar en caché solo las imágenes que se extraen. Los clientes ahora pueden enviar imágenes a su registro principal y configurar reglas de caché de extracción para almacenar en caché las imágenes en registros posteriores. En una extracción de imágenes, ECR recupera automáticamente la imagen del registro ascendente y la almacena en caché en un repositorio creado automáticamente en el registro descendente para futuras extracciones. Además, esta característica admite sincronizaciones frecuentes con registros ascendentes, lo que ayuda a mantener actualizadas las imágenes almacenadas en caché.
La caché de extracción de ECR a ECR está disponible en todas las regiones de AWS, excepto en las regiones de GovCloud (EE. UU.) y China. Para obtener más información, visite nuestra guía del usuario.
DeepSeek-R1 está disponible de forma completamente administrada en Amazon Bedrock
DeepSeek-R1 ya está disponible como un modelo sin servidor completamente administrado en Amazon Bedrock. AWS es el primer proveedor de servicios en la nube que ofrece DeepSeek-R1 como un modelo completamente administrado y disponible de forma general. Puede potenciar sus aplicaciones con las capacidades de DeepSeek-R1 a través del servicio completamente administrado de Amazon Bedrock mediante una única API junto con las herramientas de Amazon Bedrock. De esta manera, su equipo puede centrarse en crear de inmediato aplicaciones de IA generativa diferenciadas. Al usar Amazon Bedrock para implementar DeepSeek-R1, también obtiene un acceso sin interrupciones a las características de seguridad, control costos y monitoreo de nivel empresarial que son fundamentales para implementar la IA de manera responsable y a escala, a la vez que le brinda un control total sobre sus datos.
DeepSeek-R1 es un modelo disponible públicamente bajo licencia del MIT que ofrece una precisión excepcional y una comprensión contextual amplia. DeepSeek-R1 combina un procesamiento útil del lenguaje natural con capacidades de razonamiento avanzadas, como lo demuestra su rendimiento destacado en matemáticas, donde alcanzó el 79,28 % en la competencia AIME 2024, y en ingeniería de software, donde obtuvo una puntuación del 49,2 % en la evaluación SWE-Bench Verified. DeepSeek-R1 ofrece una opción rentable para habilitar capacidades avanzadas de razonamiento de IA de forma eficiente, maximizando su inversión en tecnología. Para ayudarlo a implementar DeepSeek-R1 de manera responsable en los entornos de producción, Amazon Bedrock ofrece medidas de seguridad integrales y personalizables a través de las barreras de protección de Amazon Bedrock. Esto incluye el filtro de información confidencial y los controles de seguridad personalizables, algo especialmente valioso para las organizaciones que operan en entornos regulados. Recomendamos integrar las barreras de protección en sus implementaciones de DeepSeek-R1 para sumar protección sólida a sus aplicaciones de IA generativa.
DeepSeek-R1 está disponible de forma completamente administrada en Amazon Bedrock en las regiones de AWS este de EE. UU. (norte de Virginia), este de EE. UU. (Ohio) y oeste de EE. UU. (Oregón) mediante inferencia interregional. También puede usar DeepSeek-R1 y sus variantes destiladas a través de Amazon Bedrock Marketplace y la importación del modelo personalizado de Amazon Bedrock. Para obtener más información, visite el blog de lanzamiento, la página del producto DeepSeek en Amazon Bedrock, los precios y la documentación de Amazon Bedrock. Para empezar a usar DeepSeek en Amazon Bedrock, visite la consola de Amazon Bedrock.
En CLOUDAWS somos Sysops y Partner AWS especializados en Amazon Web Services; contáctenos para facilitarle la migración de su proyecto a la nube.