¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
Conoce nuestra marca.Meetup
30 de Noviembre, 19-21h
Este mes celebramos un nuevo meetup de Python con una doble sesión a cargo de Álvaro León Santiago y Jose María Álvarez:
Pythomatic: ciclo de vida de aplicaciones descentralizado
Por muchas razones el diseño del ciclo de vida de nuestras aplicaciones se hace cada vez más necesario, para poder hacer posible la integración continua de nuevas funcionalidades asegurando los estándares de calidad, minimizando la aparición de fallos y acortando los tiempos de release.
Existen una infinidad de sistemas que nos dan soporte para diseñar de manera integral ciclos de vida de manera centralizada. Entre sus muchas ventajas que nos dan están la trazabilidad sobre cada una de las fases del ciclo de vida, auditoría, integración con un montón de herramientas por medio de plugins y, en general, bonitas interfaces gráficas que hacen más intuitivo el seguimiento de los resultados de la ejecución a lo largo del ciclo de vida.
Pero ¿qué pasaría si descentralizamos la ejecución de las fases del ciclo de vida, haciéndolo independiente de restricciones de los sistemas de CI que nos dan soporte? ¿Y si incorporamos la definición y código del ciclo de vida en el versionado de nuestra aplicación? y de paso… ¿Qué tal si lo hacemos todo utilizando Python?
Con serverless, python y unas cuantas librerías vamos a darle un enfoque diferente a las técnicas DevOps.
Scrapy en producción: Por que hay vida más allá de Beautiful Soup y Requests
Extraer datos de una página web o datasource es algo que todos nos hemos planteado (o que hemos necesitado) alguna vez pero estamos en un punto en el que la cantidad de información es tan grande, que los métodos clásicos ya no son suficientes para sistemas en producción. En la charla veremos algunas técnicas básicas (y alguna avanzada) que nos permitirán tener una herramienta automática y escalable de extracción de información, que soporte millones de datos, y basado en Python/Scrapy. También veremos algunos de los desafíos que nos podemos encontrar al poner esta herramienta en producción.