¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.dev
Miguel Ángel Muñoz 15/02/2023 Cargando comentarios…
Parece que fue hace poco, pero ya han pasado más de 2 meses desde que se celebró re:Invent en Las Vegas y, como bien es sabido, todas las novedades de AWS se lanzan en el re:Invent, ¿o no?
Parece que ya no. AWS lanza novedades todos los meses del año, aunque el re:Invent nos da pistas y anticipa lanzamientos, durante el año siempre salen cosas nuevas que es interesante conocer.
Seguir el ritmo de lanzamientos de AWS es inabarcable. En un mes habitual hay más de 100 lanzamientos, por lo que estar al día en AWS es muy complicado. Perdernos entre la marabunta de novedades puede ser, por desgracia, lo habitual. Por eso, os presentamos esta nueva de serie posts. Queremos facilitaros el trabajo y vamos a analizar las novedades más importantes de AWS mes a mes. Empezamos repasando lo más interesante de este mes de enero de 2023.
Empezamos por la novedad del mes: Amazon S3 encriptará todos los nuevos objetos por defecto y no permitirá nuevos objetos no encriptados.
Amazon S3 nació en 2006, en un momento en el que encriptar todo el almacenamiento era impensable, ya que la computación para realizarlo era bastante escasa. Esto ha lastrado el servicio durante todo este tiempo, ya que, aunque era posible encriptar los buckets y su contenido, no era obligatorio y, por defecto, los objetos no se subían encriptados.
Como regalo de Reyes, se activó la encriptación por defecto en todos los bucket (nuevos y antiguos), pasando todos los que estuvieran no encriptados a estar encriptados.
Por defecto, la encriptación en S3 se realizará con una clave SSE-S3, que es la clave gestionada por AWS. Los Buckets que disponían de cualquier tipo de encriptación han mantenido su estado.
Esto implica mayor seguridad, al no permitir objetos no encriptados. Los objetos ya existentes y no encriptados continuarán en ese estado, por lo que es recomendable gestionar estos objetos para subirlos nuevamente encriptados.
También es interesante el impacto en ciertas políticas organizativas y reglas de configuración, que dejan de ser útiles por lo que es recomendable revisarlas, puesto que han quedado obsoletas.
Esta novedad se complementa con el anuncio de AWS de que en abril de 2023, por defecto, se deshabilitarán las ACLs (en favor de las políticas de IAM) y se bloqueará el acceso público.
Con este combo los Bucket S3 ganan mucha seguridad, algo muy importante teniendo en cuenta que S3 es el servicio más importante de AWS (Ya que muchos otros servicios lo utilizan internamente).
Tenéis más información en la noticia de lanzamiento y en la documentación de S3.
Una de las grandes novedades que nos presentaron en el re:Invent pasa a estar disponible para todo el mundo: Amazon OpenSearch es un gran producto, y poder utilizarlo en un modelo serverless es una pasada.
Después de una disputa sobre Elasticsearch, Amazon colaboró en el lanzamiento de un fork OpenSource llamado OpenSearch. Si bien en un inicio era, básicamente, un fork de Elasticsearch al que le faltaban algunas funcionalidades de las últimas versiones; después, ha ido evolucionando, añadiendo funcionalidades muy interesantes y convirtiéndose en una solución que puede competir de tú a tú con la versión original.
La idea de tener una versión serverless en la que el escalado esté gestionado por AWS y que el despliegue y gestión este totalmente delegado es una gran ventaja. Es importante entender el modelo de serverless que tiene este servicio y otros similares como EMR o Redshift.
En este caso, AWS mide el tamaño por una unidad llamada OpenSearch Compute Units (OCUs), que equivale a una Virtual CPU y 6 GiB de memoria. El mínimo que podemos desplegar son 2 OCUs para Indexación y 2 OCUs para Búsquedas y, a partir de ahí, ir creciendo de forma automática dependiendo de la carga. Si no existiera carga, nuestro cluster bajaría al estado mínimo de 4 OCUs en total. No es posible que el cluster se apague completamente y esto es algo que tenemos que tener en cuenta, si vamos a utilizar este servicio.
Además, existe un coste por el almacenamiento utilizado. Podéis conocer más info en la noticia de lanzamiento y en la documentación de OpenSearch.
Uno de los grandes problemas de trabajar con modelos de datos y terceros es que no se puede usar los datos en bruto, por diferentes casuísticas: confidencialidad, requerimiento legal, datos críticos para el negocio, etc. AWS Clean Rooms es una nueva funcionalidad que permite disponibilizar datos enmascarados para trabajar conjuntamente en estos sets de datos, sin necesidad de copiarlos a un tercero. Realmente estamos generando zonas de datos enmascarados, pero sin necesidad de duplicar información y sin dar acceso a los datos en bruto.
Esta solución se presentó en el re:Invent y es bastante interesante de cara a poder utilizar los servicios de AWS para crear estas salas limpias y poder compartir datos de forma segura, permitiendo el consumo directo de estos datos limpios sin salir de AWS y sin generar costos extras por duplicidad de almacenamiento o cargos de transferencia de datos. Si queréis conocer más info, aquí tenéis la noticia de lanzamiento y en documentación de Clean Rooms.
Patch Manager es una funcionalidad dentro de AWS Systems Manager muy interesante, que nos permite mantener nuestros sistemas al día, aplicando parches de forma automática en las ventanas que nosotros definamos.
Tenía un pequeño GAP a nivel organizacional, y era la imposibilidad de gestionarlo de forma organizativa directamente. Con las Patch Policies vamos a poder desplegar parches a diferentes cuentas y regiones dentro de una AWS Organization.
Además, viene con las funcionalidades de Patch Manager, que permite definir ventanas para aplicar parches, definir niveles de parcheado, etc. También tiene una ventaja adicional y es poder ver el estado de Compliance de toda la organización en un único punto centralizado.
Esta nueva funcionalidad va a solucionar muchos problemas. Aquí puedes ver más info sobre su lanzamiento, sobre esta herramienta en la documentación y tutoriales en el blog de AWS.
Esta maravilla de herramienta, Amazon Route 53 Application Recovery Controller., presentada en el re:Invent aunque sin mucho ruido, pasa a estar disponible para utilizarla en cualquier despliegue.
Un problema que encontramos a la hora de gestionar una aplicación con redundancia en múltiples zonas es que una zona empiece a dar fallos intermitentes y que un health check simple no los detecte. Estos pueden ser detectados por un monitor más complejo, pero gestionar este tipo de errores era complicado. Gracias a esta nueva funcionalidad, se puede gestionar el apagado temporal de zonas de disponibilidad enteras para un balanceador sin coste adicional.
Por ejemplo, si usamos un monitor sintético y detectamos alta latencia en nuestras peticiones en la zona de disponibilidad X, podemos deshabilitar esta zona entera del balanceador y seguir prestando servicio con las otras 2 zonas hasta que consigamos recuperar la zona de disponibilidad X.
Es una funcionalidad sencilla que da mucha potencia de cara a la recuperación de errores en una zona de disponibilidad que, aunque no es algo habitual, puede pasar y puede ser crítico para ciertas aplicaciones con altos SLAs. Tenéis más información en la noticia de lanzamiento, y en el blog de AWS.
Una de las grandes ventajas de Lambda, es que la gestión de parches dentro de un contexto está gestionada por AWS, por lo que cuando se aplican parches no necesitamos realizar ninguna acción. Pero esta gran ventaja, en casos puntuales puede ser un problema, cuando se aplica un parche que tiene alguna incompatibilidad con nuestras funciones Lambda, hasta ahora no era posible gestionar estas excepciones.
Con AWS Lambda runtime management controls podemos elegir si el tipo de updates de contexto sean automático, que solamente aplique en caso de una subida de código a nuestra función o que sea manual, eligiendo nosotros la versión de runtime que queremos. De esta forma, también podemos volver a una versión anterior de runtime, si nuestra función dejase de funcionar por incompatibilidades.
Es importante ser conscientes de que esta nueva funcionalidad nos puede dar más flexibilidad, pero si optamos siempre por elegir el runtime de forma manual, perdemos una de las grandes ventajas de Lambda. El uso de esta funcionalidad debe de utilizarse en casos de incompatibilidades e intentar volver a la versión más actualizada lo antes posible.
Con esta funcionalidad ganamos la posibilidad de resolver el problema con más calma, mientras nuestras lambdas siguen funcionando correctamente en una versión anterior.
Tenéis más información en la noticia de lanzamiento, en la documentación de Lambda y en el blog de AWS.
Nuestra querida región de España sigue creciendo poco a poco con 4 lanzamientos diferentes durante este mes de enero:
Los últimos lanzamientos posibilitan la migración de cargas grandes a AWS, permitiendo la utilización de EFS para cargas que lo requieran (que sigue siendo muy alta) y Storage Gateway, que es un servicio muy interesante para cargas híbridas.
Si bien al ser una región nueva, todavía quedan muchos servicios por llegar, pero con los servicios actualmente disponibles y los que llegarán en los próximos meses podemos augurar un gran futuro a esta región. Por eso vamos a hacer un seguimiento a los lanzamientos que se vayan produciendo en los próximos meses.
¿Alguno habéis probado la nueva región? ¿Echáis en falta algún servicio que estéis usando actualmente? Si queréis nos lo podéis indicar en los comentarios. Nosotros la hemos probado y nos encanta, sobre todo con respecto a costes.
No todas las novedades pueden entrar en el top, pero hemos tenido otras novedades interesantes durante este mes de enero:
Nueva funcionalidad de las métricas de CloudWatch que nos permite enviar las métricas a herramientas de Observabilidad, permitiendo acceder a métricas de múltiples cuentas para únicamente no requerir un endpoint por cuenta. Múltiples herramientas de observabilidad permiten la integración con esta nueva funcionalidad.
Novedad que hay que probar a fondo para revisar el pricing, de inicio el coste de un metric update es 3 veces inferior a un GetMetricData (método que se utiliza habitualmente para la integración), pero sería necesario revisar el volumen de metric updates para hacer una estimación.
Herramienta OpenSource que permite visualizar y explorar de forma sencilla y gráfica nuestros datos en Amazon Neptune.
El escalado predictivo de EC2 mejora sustancialmente, generando predicciones 4 veces por día en vez de 1. Permite ser más eficiente en cuanto a escalados más granulares.
Amazon EC2 Auto Scaling es una funcionalidad bastante útil, si tenemos picos de demanda y queremos que nuestro autoescalado esté disponible antes de producirse un evento que requiera de más capacidad de cómputo. Con esta novedad el servicio gana en efectividad.
Amazon S3 Storage Lens es un servicio que nos proporciona datos sobre el uso de S3 para poder analizarlo y optimizar su uso. AWS ha anunciado una mejora de precios (obviamente, más económicos).
Amazon SageMaker Canvas, servicio de No-code para Machine Learning de AWS. Mejora su eficiencia permitiendo generar modelos en menos tiempo, es hasta 3 veces más rápido para los modelos más simples y 2 veces más rápido para los modelos estándar.
Cambios en los permisos para la consola de AWS Billing, Cost Management e información de la cuenta. Esta modificación proveerá de un acceso más granular a los servicios de facturación para limitar el alcance de los permisos.
Actualmente, si se dispone de permisos de lectura en Billing, se puede ver los costes de la cuenta, además de toda la información fiscal y de pagos. Hasta el 6 de julio de 2023 el antiguo modelo de permisos seguirá vigente para poder migrar al nuevo modelo (ya disponible).
Si no conocéis EC2 Image Builder, estáis tardando en echarle un vistazo. Este servicio nos permite generar Imágenes EC2 con nuestra propia customización de forma automática y permitiendo actualizar las imágenes de forma automática y disponibilizarlas para utilizarlas en nuestros despliegues. Ahora añade una funcionalidad para ‘hardenizar’ nuestros sistemas, utilizando los Benchmark de CIS en nivel 1. Más seguridad y más automatización es un gran combo que EC2 Image Builder nos permite implementar.
Otra mejora en OpenSearch, además del lanzamiento del servicio en modelo Serverless. Con esta funcionalidad podemos validar los cambios de configuración antes de aplicarlos. Hasta ahora no era posible esta acción y, en caso de una mala configuración, el cluster seguía operativo, pero se quedaba en estado “processing” hasta que solventamos los errores. Ahora se puede lanzar un dry run, para validar los cambios antes de aplicarlos. Algo que soluciona bastantes quebraderos de cabeza para no dejar nuestros cluster en un estado inconsistente mientras aplicamos cambios de configuración.
Migrar a Graviton (ARM) es una gran idea, ya que los procesadores ARM son más eficientes en cuanto a potencia/rendimiento y nos permiten un ahorro de costes muy interesante, además de ser más eficientes (energéticamente hablando) y, por tanto, permiten minimizar nuestra huella de carbono.
También puede ser un dolor de cabeza a la hora de migrar de una arquitectura de procesador x86 a una arquitectura ARM. Porting Advisor for Graviton es una herramienta de tipo cli, que nos permite analizar nuestro código, para revisar incompatibilidades, librerías faltantes o desactualizadas, así como partes de nuestro código que requieren una refactorización, dándonos alternativas para que nuestro código funcione en Graviton. Si bien esta herramienta no soluciona todos los problemas para migrar a Graviton, sí que nos facilita la migración y permitirá acelerar gran parte de ellas.
¡Vaya mes más completo! Estas son algunas de las novedades principales que nos ha presentado AWS el mes de enero. Como veis, tenemos muchas opciones para investigar y empezar a trabajar con ellas. ¿Tienes alguna preferencia? ¿Qué opinas de estas nuevas funcionalidades?
Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.
Cuéntanos qué te parece.