Southern Machinery provides professional SMT peripheral equipment.

audit du processus qualité pcba de fabrication électronique — test en circuit

2023-02-09 17:51:23
1. Instructions d'utilisation et de travail
1.1 Existe-t-il une instruction de test contrôlée par révision qui contient des détails uniques pour le produit spécifique testé ? (Notez 0 si des instructions manuscrites non signées/non datées ou des instructions manuscrites datant de plus de 48 heures)
1.2 Les instructions de travail sont-elles facilement accessibles à l'opérateur de test et sont-elles suivies ?
1.3 L'ID de l'appareil est-il spécifié dans les instructions de travail ?
1.4 L'ID de l'appareil est-il traçable à un numéro de pièce PCBA spécifique et à un niveau de révision et à l'unité sous test ?
1.5 Le fichier batch est-il spécifié dans les instructions de travail ?
1.6 Le fichier batch est-il traçable à un numéro de pièce PCBA spécifique et à un niveau de révision et à l'unité sous test ?
1.7 Le réglage et la plage de vide sont-ils spécifiés dans les instructions de travail ?
1.8 L'orientation du circuit imprimé par rapport à l'appareil est-elle identifiée dans les instructions de travail ou sur l'appareil ?
1.9 L'opérateur de test dispose-t-il à tout moment de la procédure opératoire standard (SOP) pour le testeur ?
1.10 Y a-t-il des preuves que l'opérateur a été formé et certifié selon la procédure opératoire standard pour le testeur ?
1.11 L'Opérateur connaît-il le contenu de la Procédure Opérationnelle Standard pour le Testeur et le fait-il et le suit-il ?
1.12 Les opérateurs doivent-ils se connecter à la station de test et cela fournit-il une vérification automatique du statut de la formation ?
2. Luminaire TIC
2.1 Le luminaire ICT est-il identifié par un nom ou un numéro ?
2.2 L'autocollant d'entretien préventif/d'étalonnage sur l'appareil ICT est-il à jour ?
2.3 Existe-t-il une procédure et un calendrier de maintenance préventive pour les appareils ICT ?
2.4 Y a-t-il des preuves pour démontrer que les dossiers de maintenance préventive sont à jour ?
2.5 Les pièces de rechange du dispositif de test (à l'exception des sondes) sont-elles en stock ?
2.6 Des sondes de montage de test de rechange sont-elles stockées pour chaque conception requise pour prendre en charge les montages Dell ?
2.7 L'inventaire des pièces de rechange du montage d'essai est-il contrôlé de manière adéquate ?
2.8 Les luminaires ICT sont-ils correctement stockés de manière à protéger l'interface du testeur ?
3. Matériel du système TIC
3.1 Y a-t-il une jauge à vide sur la ligne connectée au système de test ?
3.2 Un vacuomètre calibré est-il visible pour l'opérateur de test et est-il réglé correctement dans une plage acceptable ?
3.3 L'autocollant de maintenance préventive/d'étalonnage sur le système de test est-il à jour ?
3.4 Existe-t-il une procédure et un calendrier de maintenance préventive pour les systèmes de test ICT ?
3.5 L'électronique des broches des systèmes de test est-elle vérifiée quotidiennement à l'aide du test interne ?
3.6 Y a-t-il des preuves pour démontrer que les dossiers de maintenance préventive sont à jour ?
3.7 Les pièces de rechange du système de test sont-elles stockées ?
3.8 Des cartes électroniques de broche de système de test de rechange sont-elles en stock ?
3.9 L'inventaire des pièces de rechange du système de test est-il contrôlé de manière adéquate ?
4. Logiciel TIC
4.1 Tous les systèmes de test ICT sont-ils connectés à un serveur ?
4.2 Le logiciel ICT est-il téléchargé à partir d'un serveur central lors de l'appel du programme ou au moins compilé une fois par jour ?
4.3 La révision du logiciel ICT est-elle contrôlée pour les changements de programme ?
4.4 Toutes les modifications apportées à un programme TIC, aussi insignifiantes soient-elles, sont-elles consignées dans le programme ou autrement ?
4.5 Est-il impossible que des modifications logicielles ICT non approuvées restent sur le système de test plus de 24 heures avant de recompiler le programme ?
4.6 Lorsque des modifications sont apportées, y a-t-il des preuves que les détails des modifications sont envoyés à Dell pour approbation ?
5. Opération d'essai
5.1 Existe-t-il une méthode automatisée de chargement des programmes de test (c'est-à-dire le fichier batch).
5.2 Le Fixture ID est-il utilisé pour sélectionner et charger automatiquement le bon programme ICT pour l'unité testée ?
5.3 Si le même luminaire ICT est utilisé pour différents numéros de pièce PCBA, le fichier batch fait-il automatiquement la différence ? NA peut être utilisé.
5.4 Existe-t-il une méthode infaillible pour s'assurer que le produit A ne passera pas l'ICT si le fichier batch B est utilisé ? NA peut être utilisé.
5.5 Existe-t-il une méthode infaillible pour s'assurer que le produit B ne passera pas l'ICT si le fichier batch A est utilisé ? NA peut être utilisé.
5.6 L'orientation du PCBA par rapport à l'appareil est-elle identifiée ou doit-elle être vérifiée avant le chargement de la carte ?
5.7 Le programme de test est-il identifié de manière unique sur l'affichage du système de test après le chargement du programme de test ?
5.8 Existe-t-il une convention documentée et convenue décrivant le stockage des tableaux non testés, échoués et réussis ?
5.9 Les conseils sont-ils marqués d'une manière ou d'une autre pour faciliter la mise en œuvre de cette convention ? (Le routage forcé est acceptable.)
5.10 Les cartes en attente de test sont-elles identifiées et stockées séparément selon la convention OU acheminées via un convoyeur dédié ?
5.11 Les panneaux de passage sont-ils identifiés et stockés séparément selon la convention OU acheminés via un convoyeur dédié ?
5.12 Les cartes défaillantes sont-elles identifiées et stockées séparément selon la convention OU acheminées via un convoyeur dédié ?
5.13 Les panneaux réussis et échoués sont-ils stockés sur des chariots de stockage différents OU acheminés via un convoyeur unique ?
5.14 Les données SPC sont-elles collectées et utilisées efficacement à ce stade du processus ?
5.15 Le contenu du tableau de données SPC est-il à jour ?
5.16 Les points de données SPC hors de contrôle sont-ils effectivement mis en œuvre ?
5.17 Des points de déclenchement du tampon ICT sont-ils établis pour garantir l'arrêt du processus en cas de dépassement des limites ?
5.18 Une étude R&R de la jauge a-t-elle été réalisée conformément aux procédures GR&R ?
5.19 La couverture des tests a-t-elle été calculée à l'aide des l Métriques pour la couverture des TIC, et est-ce facilement disponible et connu ?
6. Suivi WIP TIC
6.1 Un système de routage forcé des cartes et un système de suivi WIP sont-ils entièrement déployés tout au long du processus de test ?
6.2 Le système vérifie-t-il la « dernière » étape traitée et la compare-t-il à la « dernière » étape attendue ?
6.3 Les conseils qui réussissent ont-ils une marque d'identification pour indiquer leur statut de réussite ? (Le routage forcé est acceptable.)
6.4 Les cartes qui échouent ont-elles une marque d'identification pour indiquer leur statut d'échec ? (Le routage forcé est acceptable.)
6.5 Les cartes défaillantes ont-elles des listes d'échecs ICT jointes à des fins de débogage ? (La réparation sans papier est acceptable)
6.6 Toutes les cartes déboguées ont-elles une marque d'identification pour indiquer un état de débogage ? (Le routage forcé est acceptable.)
6.7 Existe-t-il un lien logiciel entre les résultats des tests ICT et le système de routage forcé/données de qualité ?
6.8 Ce lien logiciel élimine-t-il l'intervention manuelle pour indiquer l'état du résultat du test ?
6.9 Ce lien est-il entièrement automatisé et utilisé pour enregistrer les données de rendement de test/rendement de premier passage et de rendement de carte ?
6.10 FPY et BY sont-ils facilement connus et ont-ils été calculés conformément aux définitions de Dell et aux conditions de nouvelle tentative spécifiées ?
6.11 Pour les cartes testées au format panneau, la carte défaillante est-elle identifiée avant que le panneau ne soit retiré de l'appareil ?
7. Capacité de débogage et FA
7.1 Les cartes en attente de débogage sont-elles identifiées et stockées d'un côté de l'opérateur ou acheminées via un convoyeur dédié ?
7.2 Des points de déclenchement du tampon de débogage sont-ils établis pour garantir l'arrêt du processus en cas de dépassement des limites ?
7.3 Peut-on démontrer qu'une qualification de technicien ou une formation formelle est requise pour l'activité de débogage et d'analyse des défaillances ?
7.4 Peut-on démontrer que tout le personnel de débogage répond aux exigences ci-dessus ?
7.5 Y a-t-il un équipement de débogage adéquat disponible à chaque station de débogage ?
7.6 Le débogage et la réparation des TIC sont-ils effectués en temps réel (en ligne) dans la mesure du possible ?
7.7 Peut-on démontrer qu'un outil est utilisé pour capturer les codes d'échec, leurs correctifs, puis recommander le correctif le plus courant ?
7.8 Le technicien de débogage ICT accède-t-il au système ICT via une unité d'affichage pour mieux comprendre la cause première de la panne ?
7.9 Une carte de localisation des points de test est-elle disponible pour l'opérateur d'analyse de réparation/défaillance ?
7.10 Existe-t-il des instructions détaillées sur la détermination des fausses pannes ?
7.11 Les taux de faux échecs sont-ils suivis, surveillés et documentés ?
7.12 Existe-t-il des objectifs de réduction des fausses pannes ? (C'est-à-dire les objectifs d'augmenter le FPY)

Chat with us