SQA (software quality assurance) o aseguramiento (vaya palabro) de la calidad del software es un concepto con el que convivimos los que nos dedicamos, de una u otra manera, al desarrollo de software. Definir qué es el SQA es algo complicado y cada uno tendrá una versión distinta pero para mi no es más que la colección de procesos y herramientas que permite asegurar en cada nueva release que el software desarrollado tiene la calidad suficiente como para poder ser desplegado en producción. Existen metodologías muy desarrolladas en torno a este tema pero yo prefiero ir a lo práctico y sencillo y al final lo reduzco a una serie de pruebas funcionales que debe pasar el software. Estas pruebas deben cubrir todos los procesos de negocio soportados por el software, tanto el funcionamiento esperado como los errores controlados.
La gestión de la calidad del software debería formar parte de manera natural del ciclo de vida del software pero todos sabemos que no es así. En casi todos los proyectos brilla por su ausencia.
SQA en una startup
En la mayoría de los casos, unir en una misma frase startup y SQA es ciencia ficción. Casi siempre en las startups tendemos a confundir rapidez, agilidad y calidad. Pero claro, los recursos y el tiempo en una startup son muy limitados y si hay que reducir por algún sitio, normalmente suele ser a costa de suprimir el SQA. Aunque por otro lado, nuestra tolerancia a los errores es muy baja y siempre queremos que las cosas funcionen perfectamente. Estoy seguro que a muchos os ha venido a la cabeza alguna conversación con vuestro CEO en la que habéis discutido sobre la necesidad de hacer un desarrollo para ayer pero luego, cuando las cosas han fallado por hacerlas deprisa y corriendo, ha puesto el grito en el cielo.
Cuando nos movemos en el entorno de una startup, parece bastante asumido que el SQA hay que dejarlo para más adelante, para cuando la empresa deja de ser una startup y te puedes parar un poco a afianzar todo. Algunos ejemplos:
- En BuyVIP durante el tiempo que fui CTO no teníamos ni un plan de pruebas definido ni un proceso de pruebas exaustivo previo al paso a producción.
- En tagUin, teníamos una guía básica de qué había que comprobar y teníamos en la cabeza el detalle de lo que había que probar pero no lo hacíamos siempre y casi siempre nos dejábamos cosas por probar.
- En Planeo mientras yo gestioné el proyecto, nunca hubo plan de pruebas y la parte de negocio nunca se involucró lo suficiente en hacer pruebas funcionales de calidad. Así pasaba, que casi siempre había errores totalmente evitables si el negocio hubiera probado lo que le pedíamos que probara.
Qué hacíamos en etece
Digo «hacíamos» y no hacemos porque estamos trabajando para cambiar y mejorar el SQA. Un poco más adelante os cuento qué estamos haciendo.
Desde la primera versión de etece que vio la luz a mediados de julio de 2012, hemos tenido un documento muy sencillo donde hemos ido incorporando las pruebas que considerámos necesarias para comprobar, en cada nueva release, que todo funciona según esperamos. En esa primera versión eran alrededor de unas 80 pruebas. Ahora vamos por casi 300. Estas son algunas de nuestras pruebas:
- Grupo: registro de cliente
- Prueba: registro correcto de cliente
- Pre-requisitos: ninguno
- Descripción: desde la home, se accede al registro de cliente, se completan todos los datos con un email que no haya sido registrado previamente y se completa el registro
- Resultado esperado: 1.- Llega correctamente el email de bienvenida; 2.- El usuario está correctamente registrado en el CRM; 3.- El cliente queda correctamente suscrito a las listas usuarios y clientes tanto en la web como en MailChimp«
- Grupo: registro de cliente
- Prueba: registro de cliente con email dado de baja
- Pre-requisitos: disponer de un usuario registrado y dado de baja
- Descripción: desde la home, se accede al registro de cliente, se completan todos los datos usando el email de un usuario dado de baja y se intenta completar el registro
- Resultado esperado: El registro no se completa, se muestra un mensaje genérico de error y además se marca en rojo el campo email indicando que ya existe
Al principio, hacer todas las pruebas nos llevaba un día de una persona. Ahora, con casi 300 estamos en un par de días de dos personas. Además, según vamos incorporando funcionalidad a la web, las pruebas cada vez son más complejas y requiren de más tiempo. Estaba claro que teníamos que ir un paso más allá, automatizando las pruebas.
Qué estamos haciendo ahora en etece
Desde hace un par de semanas estamos trabajando para automatizar el mayor número de pruebas que podamos. Las ventajas de automatizar las pruebas son claras:
- mejora del tiempo necesario para pasar el plan de pruebas.
- minimizar la intervención humana. No hace falta, en un procentaje grande, que intervenga ninguna persona.
- mejorara la calidad de las pruebas. Es casi consecuencia del punto anterior. Al eliminar el factor humano, eliminamos aquellas pruebas que se dan por buenas por error o que directamente, la persona encargada no las hace ( pasa más de lo que pensáis).
- hay que ser más metodológico. Todo lo nuevo que se desarrolla o que se modifica debe tener sus pruebas funcionales programadas. Es algo bueno, pero también lo incluyo como punto negativo ya que muchas veces te puede complicar de más algún desarrollo.
En cambio, hay que asumir algunos puntos negativos:
- aumento del tiempo de desarrollo. Ahora, además de programar la funcionalidad, hay que programar las pruebas que comprueban que todo funciona correctamente y hay que mantener operativas las pruebas ya programadas. Estimamos que el tiempo se va a aumentar entre un 10% y un 15%.
- hay que se más metodológico.
Para automatizar las pruebas estamos usando Seleniun2 con JUnit4. En los próximos días publicaré un post escrito por Javier Fernandez que explica a nivel técnico cómo está montada toda la automatizacion de pruebas. Avanzando un poco de lo que él contará, para cada una de las pruebas que teníamos escritas es nuestro plan de pruebas, hemos creado un test de Selenium que hace el proceso completo de la prueba y comprueba todos los resultados esperados. Hemos hecho cada prueba independiente de la anterior de manera que una prueba empieza sin necesitar datos anteriores, se ejecuta y al terminar borra todo rastro para así poder ser ejecutada de nuevo sin problemas. Como imaginaréis, hay muchos procesos que están compartidos entre muchas pruebas (registro de usuario, registro de solucionador, encargar una tarea, etc…) por lo que la estructura de clases que hemos montado nos permite independizar del test toda esta navegación común. El plan de pruebas lo lanzamos desde nuestro servidor de integración contínua (Jenkins) lo que nos permite conocer en todo momento la salud de nuestro proyecto.
Hasta la fecha hemos conseguido automatizar alrededor de un 90% de las pruebas del plan lo que reduce a poco más de un par de horas el trabajo el tiempo humano necesario para completar las pruebas.
Espero que estas líneas os sirvan de estímulo para incluir, de manera más o menos sencilla, el SQA como parte de vuestros proyecto.
Buen post. Al margen de los test automaticos, teneis (o teniais en alguna de las anteriores) gente dedicada unicamente al QA? (Es decir, gente que dedica el 100% de su tiempo a probar la herramienta) o cada ingeniero es responsable de su propio QA?
Hola Luis,
pues ni tenemos ni he tenido nunca en ningún proyecto ingenieros dedicados al QA. Se que es un error por mi parte, pero esa parte siempre la ha hecho alguien de negocio o los product managers.
Por otro lado, en etece, los programadores hacemos nuestras pruebas unitarias, pero el QA funcional lo hacen otras personas de otras áreas para así no viciar las pruebas. Ahora con la automatización, tendran que dedicar menos tiempo.
Gracias por tu comentario.
Hacer tests que no sean automaticos en cualquier metodologia de desarrollo parecida a Agile es un dolor, asi que lo entiendo. El problema que yo me encuentro es que muchos errores son muy dificiles de detectar con tests automaticos (sobre todo en casos en los que te «integras» en un cliente, como es nuestro caso), de ahi la pregunta.
Gracias por la respuesta!
Hola de nuevo,
para mi la detección de errores es algo que hay que trabajar a la hora de definir el plan de pruebas, mucho antes de pensar en automatizarlas. Cuanto más meticuloso sea tu plan de pruebas, más sencillo será detectar errores. En nuestro caso, para una startup con una web más o menos sencilla e integrada con nuestro CRM, hacemos casi 300 pruebas funcionales. Con esto nos quedamos lo suficientemente tranquilos sabiendo que lo básico funciona y no nos hemos cargado nada.
Está claro que cuando el desarrollo es muy grande e intervenien varias decenas de programadores, por mucho que automatices, necesitas un equipo de QA dedicado.
Gracias por participar en el debate.
Buenas,
Sería interesante el post que hable de la parte técnica de la automatización de pruebas.
Espero lo publiquen pronto.
Muchas gracias
Muy buen post este!
Hola Nieves,
gracias por tu comentario. Espero poder publicar el post más técnico en los próximos días.
Un saludo