sábado, 7 de dezembro de 2013

Testar com poucos (ou nenhuns) Requisitos

Muitos testers são surpreendidos quando lhes pedem para testar aplicações informáticas sem que existam requisitos claros. Será possível não cair em pânico e sair desta situação de forma segura quando não se tem muita experiência? Muito dificilmente um tester recebe um documento completo e preciso de especificações funcionais. Em muitos casos estão definidos prazos de entregas iniciais, surgem mudanças repentinas de requisitos ou tarefas urgentes, faltam recursos humanos, e existem outros obstáculos que podem complicar o processo de testes. E mais frequentemente também surgem desentendimentos entre especialistas de diferentes áreas que podem ser resolvidos graças à intervenção do tester. Para ultrapassar estas situações, existem algumas dicas que podem ajudar os testers com menor experiência.

Primeiramente é necessário encontrar respostas claras para algumas questões genéricas:
  • Vamos fazer testes unitários e/ou de sistema?
  • Vamos fazer testes funcionais, de performance ou de regressão?
  • Trata-se de um produto novo ou é um projecto de manutenção?
  • Como é que os programadores entendem o sistema?
  • Que outra documentação existe além de especificação funcional?
  • Existe algum analista/especialista de negócio, ou um utilizador final disponível?
  • Há componentes funcionais previamente definidas?
  • Quais são as áreas de risco?
  • Qual o nível de experiência da equipa de testes?
  • Vão ser feitos testes manuais e/ou automáticos?

As respostas às questões anteriores revelarão possíveis formas de pôr em prática o processo de testes.

Quanto ao aspecto organizacional dos testes podemos considerar os seguintes aspectos:
  • Identificar os pontos fortes da equipa de testes.
  • Obter informações sobre as componentes técnicas desenvolvidas.
  • Combinar ou separar módulos consoante o tipo de testes.
  • Distribuir os módulos a testar de acordo com as competências e conhecimentos dos testers.
  • Encorajar a comunicação constante entre a equipa de testes e programadores e analistas.
  • Escolher uma abordagem de testes clara e objectiva, que não seja passível de diferentes leituras, para evitar erros de interpretação.
  • Documentar os passos básicos nos detalhes do processo de teste, se houver pouco tempo disponível.

Com estes princípios em mente, podemos ainda tentar algumas abordagens alternativas para os testes. Podemos realizar testes exploratórios, em que testamos a aplicação de acordo com o nosso próprio método. E podemos fazer testes de aceitação (ou com utilizadores) envolvendo um utilizador desconhecido para perceber como são entendidos os requisitos e as funcionalidades básicas, e compreender a forma como os utilizadores interagem com a nova aplicação. Também se pode pedir aos utilizadores que escrevam pequenas histórias (descrições do negócio) que podem servir de base para o desenho de mais testes.

Em resumo, podemos dizer que, quaisquer que sejam as condições para testar software, devemos sempre pensar cuidadosamente e definir objectivos claros antes de começar.

----------------------
Traduzido e adaptado de: Testing In The Dark: How To Come Out Into The Light (Blog Hunteress)

Outros links sobre este assunto:

terça-feira, 12 de novembro de 2013

Serão os testers "programadores falhados"?

O desenvolvimento de software é um processo de certa forma sinuoso, que envolve a intervenção de diferentes pessoas. A interacção entre diferentes pessoas não promove apenas a aprendizagem colectiva como também ajuda a desenvolver as competências técnicas dos colaboradores. No entanto, uma maior interacção entre colaboradores também aumenta as hipóteses de conflito, algo comum em ambientes de trabalho. Developers e testers são duas classes de colaboradores cuja interacção pode levar a conflitos infindáveis devido a várias razões, tais como a diferenciação das funções profissionais, a experiência profissional e os atributos intelectuais.

A razão mais evidente é a parcialidade histórica em relação aos testers apelidados de cidadãos de segunda e programadores falhados. “Os testers são os licenciados em ciências computacionais que não sabem programar”, este hábito de considerar os testers como colaboradores inferiores é a causa de todo o problema. No entanto, estas considerações pertencem a uma corrente de pensamento ortodoxa e são como estereótipos, sem evidências práticas e suporte factual. Com tanto desenvolvimento e progresso no mundo do QA, a realidade é que os testers têm agora um papel mais exigente e desafiador no processo de desenvolvimento.

Após discutir com developers e testers, descobri que os “developers” foram postos num pedestal e glorificados por si mesmos e pelas chefias. Eles acreditam que o código que desenham está isento de bugs e daí se depreende um problema de ego.

Tomemo-lo desta forma: os developers são os médicos que trazem o bébé (software) à vida, e que os testers são as pessoas que dizem “que bebé tão feio”. Mas não é exactamente isso que os testers tentam fazer. Os testers estão lá para ajudar no parto do bébé e a ajudar para que ele cresça forte. No fim de contas, Desenvolvimento e Testes são dois lados da mesma moeda. Ambos se complementam e é nesse aspecto que ambos os lados necessitam de pôr o ego de lado e colaborar.

Testar é como o retrovisor para o desenvolvimento para que este não se distraia. Visto que os testers são responsáveis pela qualidade do software, estes certificam-se que o software é entregue em boa forma tanto para o utilizador final como para a empresa.

Ao longo dos anos, o papel do profissional dos testes/QA evoluiu para um patamar separado mas igual; os testers têm apenas um conjunto de competências diferentes embora valiosas. É necessária a evolução na cultura de muitas organizações para trabalhar com e tirar partido desta nova ordem demográfica. Para além disso, os testers também deveriam trabalhar não só na identificação de bugs, mas também na correcção de bugs menores. Apenas enviar de voltar os relatórios de bugs para o developer após correr os ciclos de testes e pedir-lhe para corrigir os bugs e repetir o mesmo processo só vai intensificar e agravar a situação.

Assim sendo, é imperativo para ambos trabalharem colectivamente num projecto com união, e não limitarem-se a atirar trabalho para cima do outro.

------------------------------------
Traduzido e adaptado por Pedro Sesinando de: Are Testers failed programmers?
 

sexta-feira, 25 de outubro de 2013

Mitos sobre Testes de Software



Mito nº 1: Testar é muito caro.
Realidade: Há um ditado que diz: pagar menos para testes durante o desenvolvimento de software ou pagar mais pela manutenção/correcção mais tarde. Antecipar os testes permite economizar tempo e custos em muitos aspectos. No entanto, reduzir custos sem testar pode provocar o desenho incorrecto de uma aplicação de software, tornando-a inútil.

Mito nº 2 : Testar é uma tarefa que consome muito tempo.
Realidade: Durante o ciclo de vida do desenvolvimento de software, a fase de testes raramente é um processo demorado. No entanto, diagnosticar e corrigir erros detectados durante os testes é um processo demorado, mas também muito produtivo.

Mito nº 3: Os testes só podem começar depois do produto estar totalmente desenvolvido.
Realidade: É verdade que os testes dependem do código fonte, mas a revisão de requisitos e desenho de casos de teste não depende do código desenvolvido. Num modelo de desenvolvimento iterativo ou incremental podemos reduzir a dependência em relação à conclusão do desenvolvimento de software.

Mito nº 4: Os testes exaustivos são possíveis.
Realidade: Isto torna-se um problema quando um cliente ou um tester acredita que é possível testar todos os pormenores de uma aplicação. É possível que todas as funcionalidades e opções tenham sido validades pela equipa de testes (ou do cliente), Mas nunca é possível realizar um teste exaustivo. Podem existir cenários que nunca são executados pela equipa de testes (ou o cliente) durante o desenvolvimento da aplicação e que surgem assim que a aplicação entra em produção.

Mito nº 5: Se o software foi testado, então não pode ter bugs.
Realidade: Este é um dos mitos mais comuns entre clientes e gestores de projecto. Ninguém pode afirmar com absoluta certeza que uma aplicação de software está 100% livre de bugs, mesmo que tenha sido testada por um tester com capacidades magníficas.

Mito nº 6: Os bugs que subsistem são culpa dos Testers.
Realidade: Não é correcto culpar os testers pelos erros que subsistem na aplicação após a execução dos testes. Esses bugs devem-se na maioria das vezes a prazos, custos, mudanças de requisitos e diversos constrangimentos. No entanto, a estratégia de testes também pode não ser a mais eficaz e haver erros que a equipa de testes não detecta.

Mito nº 7: Os Testers são os únicos responsáveis pela qualidade do produto.
Realidade: É uma atitude muito comum pensar que apenas os testers (ou a equipa de testes) são responsáveis pela qualidade do produto. As responsabilidades dos testers incluem a detecção de bugs para as outras equipas do projecto, e seguidamente são essas equipas que decidem se efectuam correcções ou se dão o software como concluído. 

Mito nº 8: Automatização de testes deve ser usada sempre que possível e permite reduzir o tempo.
Realidade: É verdade que a automatização de testes reduz o tempo de teste, mas não é possível iniciar a automação de teste em qualquer momento durante o desenvolvimento de software. A automatização de testes deve ser iniciada quando o software foi testado manualmente e apresenta alguma estabilidade. No entanto, a automatização de testes não pode ser utilizada se os requisitos estiverem sempre a mudar.

Mito nº 9: Qualquer pessoa pode testar software.
Realidade: Muita gente fora do mundo da TI pensa (e acredita!) que qualquer pessoa pode testar software e que testar não é um trabalho criativo. No entanto, os testers sabem muito bem que isso é um mito. Pensar cenários alternativos e tentar crashar o software com o objectivo de explorar possíveis erros não é possível para a pessoa que o desenvolveu.

Mito nº 10: A tarefa do tester é apenas detectar bugs.
Realidade: Detectar bugs no software é a tarefa dos testers, mas ao mesmo tempo eles são especialistas no domínio do software específico. Os programadores são responsáveis por componentes específicas ou áreas que lhes são atribuídas, mas os testers têm de compreender o funcionamento global do software, quais as suas dependências e quais os impactos de um módulo sobre outros.
--------------------------------
Traduzido e adaptado de: Software Testing Myths (TutorialsPoint) 
Ver também: Software Testing Myths (OJAS)

terça-feira, 24 de setembro de 2013

terça-feira, 17 de setembro de 2013

Testes de Sistema: Onde, Quando e Como?

Quando usamos a expressão “Testes de Sistema” estamos a referir-nos aos testes a que sujeitamos um sistema de software ou uma aplicação como um todo. Os Testes de Sistema são realizados sobre a totalidade da aplicação para validar o seu comportamento global face aos requisitos do negócio e dos utilizadores finais. Os Testes de Sistema são classificados como “caixa preta”; por esse motivo, a informação relativa à arquitectura, desenho e código da aplicação não é relevante para este tipo de testes.

Geralmente, ao testar software um tester tende a distinguir os bugs detectados nos interfaces dos detectados nas componentes. Mas durante os Testes de Sistema, o foco da atenção é o desenho e o comportamento do software, assim como as expectativas do cliente. Por esse motivo há quem designe este tipo de testes como “testes globais” no ciclo de desenvolvimento de software.

Quando surgem os Testes de Sistema?

Quando todas as componentes estiverem desenvolvidas e instaladas, o sistema é testado na sua totalidade de forma a garantir que responde a todos os requisitos de negócio, funcionais e não-funcionais. Alguns dos Testes de Sistema podem ter por base testes unitários e testes de integração, mas são executados num ambiente semelhante ao ambiente de produção. Na maioria dos casos, existe uma equipa à parte que se dedica à execução dos testes de sistema

Porquê realizar Testes de Sistema:

  • Esta é a primeira ocasião em que o sistema é testado como um todo.
  • Pretende-se confirmar que se cumprem os requisitos de negócios, técnicos, funcionais e não funcionais do software. Assim confirma-se globalmente que a aplicação corresponde às expectativas de todos os intervenientes.
  • Os testes de sistema são efectuados num ambiente muito semelhante ao ambiente de produção, onde a versão final será instalada.

Critérios para iniciar os Testes de Sistema:
  1. Testes unitários estão concluídos;
  2. Testes de integração estão concluídos;
  3. Foi terminado o desenvolvimento de software;
  4. Está preparado um ambiente de testes de sistema que simula com exactidão o ambiente de produção.

Teste de Sistema em sete etapas:
  1. Desenvolver um plano de testes de sistema;
  2. Desenvolver casos de teste do sistema;
  3. Escolher ou criar dados para serem usados nos testes;
  4. Se necessário, preceder à automatização dos testes de sistema;
  5. Executar os casos de teste
  6. Corrigir os erros detectados e executar testes de regressão;
  7. Se necessário, realizar o ciclo de testes de software, se possível num ambiente diferente.

O conteúdo de um Plano de Testes de Sistema pode variar de empresa para empresa ou de projecto para projecto. Este Plano baseia-se na estratégia de testes e do plano de projecto. É importante ter presente que um Plano de Testes de Sistema deve incluir:
  • Definição do âmbito;
  • Objectivos e propósitos;
  • Identificação das principais áreas (ou das áreas críticas);
  • Definição dos entregáveis;
  • Plano de Testes de Sistema;
  • Calendário;
  • Critérios de aceitação e conclusão;
  • Atrasos e alterações de critérios de testes;
  • Caracterização do ambiente de testes;
  • Definição do processo de aceitação;
  • Participantes e plano de formação;
  • Funções e responsabilidades;
  • Dicionário.

Como criar casos de Teste de Sistema: 
Os casos de Teste de Sistema são escritos da mesma forma que os casos de teste funcionais. Mas há dois aspectos a ter em conta quando escrevemos casos de Teste de Sistema:
  1. Os CT’s de Sistema devem incluir use cases e cenários
  2. Os CT’s de Sistema devem responder a todos os requisitos, sejam técnicos, de interface, funcionais, não-funcionais, de performance e outros.

Segundo a Wikipedia, existem dezenas de diferentes tipos de testes que podem ser realizados durante os Teste de Sistema. Entre eles encontramos: testes de Interface com utilizador, testes de usabilidade, testes de performance, testes de compatibilidade, testes de tratamento de erros, testes de carga, testes de stress, testes de ajuda ao utilizador, testes de segurança, testes de escalabilidade, testes de capacidade, testes exploratórios, testes de regressão, testes de fiabilidade, testes de recuperação, testes de instalação, testes de potência, teste de manutenção, testes Ad-hoc, testes de falha e recuperação e os testes de acessibilidade.

Cada Caso de Teste de Sistema deve ter:
  • Um identificador único;
  • Uma classificação interna do projecto;
  • Um nome de Tester que será responsável pela sua execução;
  • Identificação do(s) requisito(s) associado(s) ou breve descrição da funcionalidade a ser testada;
  • Passos a seguir na execução do Teste;
  • Resultado previsto para cada passo que é executado;
  • Dados de entrada;
  • Resultado final do Caso de Teste (Sucesso/ Falha);
  • Revisão do teste.

-------------------------------------------
Traduzido e adaptado de: How To Accomplish System Testing?