Cette formation s’adresse aux professionnels du test logiciel souhaitant approfondir leur rôle d’Analyste de Test dans des projets complexes.
Elle permet de maîtriser les activités d’analyse et de conception des tests, la priorisation basée sur les risques, l’application des techniques de test avancées, ainsi que la gestion des anomalies et des revues.
La formation est basée sur le standard ISTQB Niveau Avancé – Test Analyst, complétée par des cas pratiques et des exemples concrets issus de projets réels.
Durée : 5 jours, alternant théorie et pratique.
1. Les tâches de l’Analyste Technique de Test dans le test
1.1 Introduction
1.2 Test basé sur les risques
1.2.1 Identification des risques
1.2.2 Évaluation des risques
1.2.3 Réduction des risques
2. Techniques de test boîte blanche
2.1 Introduction
2.2 Test des instructions
2.3 Test des décisions
2.4 Test des conditions/décisions modifiées
2.5 Test des conditions multiples
2.6 Test des chemins
2.7 Test des API
2.8 Sélection d’une technique de test boîte blanche
3. Techniques analytiques
3.1 Introduction
3.2 Analyse statique
3.2.1 Analyse du flot de contrôle
3.2.2 Analyse du flot de données
3.2.3 Utilisation de l’analyse statique pour améliorer la maintenabilité
3.2.4 Graphes d’appel
3.3 Analyse dynamique
3.3.1 Aperçu
3.3.2 Détection des fuites de mémoire
3.3.3 Détection des pointeurs sauvages
3.3.4 Analyse de l’efficacité de la performance
4. Caractéristiques de qualité pour les tests techniques
4.1 Introduction
4.2 Questions générales de planification
4.2.1 Exigences des parties prenantes
4.2.2 Acquisition des outils nécessaires et formations associées
4.2.3 Exigences relatives à l’environnement de test
4.2.4 Considérations organisationnelles
4.2.5 Considérations relatives à la sécurité des données
4.2.6 Risques et défauts typiques
4.3 Tests de sécurité
4.3.1 Raisons d’envisager des tests de sécurité
4.3.2 Planification des tests de sécurité
4.3.3 Spécification des tests de sécurité
4.4 Tests de fiabilité
4.4.1 Introduction
4.4.2 Mesure de la maturité du logiciel
4.4.3 Tests de tolérance aux fautes
4.4.4 Tests de récupération
4.4.5 Tests de disponibilité
4.4.6 Planification des tests de fiabilité
4.4.7 Spécification des tests de fiabilité
4.5 Tests de performance
4.5.1 Types de tests de performance
4.5.2 Planification des tests de performance
4.5.3 Spécification des tests de performance
4.5.4 Sous-caractéristiques de qualité de l’efficacité de la performance
4.6 Tests de maintenabilité
4.6.1 Tests statiques et dynamiques de maintenabilité
4.6.2 Sous-caractéristiques de la maintenabilité
4.7 Tests de portabilité
4.7.1 Introduction
4.7.2 Tests de facilité d’installation
4.7.3 Tests d’adaptabilité
4.7.4 Tests de facilité de remplacement
4.8 Tests de compatibilité
4.8.1 Introduction
4.8.2 Tests de coexistence
5. Revues
5.1 Tâches de l’Analyste Technique de Test dans les revues
5.2 Utilisation de check-lists dans les revues
5.2.1 Revues d’architecture
5.2.2 Revues de code
6. Outils de test et automatisation
6.1 Définition du projet d’automatisation des tests
6.1.1 Sélection de l’approche d’automatisation
6.1.2 Modélisation des processus métier pour l’automatisation
6.2 Outils de test spécifiques
6.2.1 Outils d’injection de fautes
6.2.2 Outils de test de performance
6.2.3 Outils pour les tests Web
6.2.4 Outils de test basés sur des modèles
6.2.5 Outils de test de composants et de build
6.2.6 Outils de test d’applications mobiles