Étude critique du CREDISCORE utilisé dans la vidéo de Voronej


Avertissement :

Cette étude est la suite d'un précédent article sur la vidéo "VORONEZH, RENCONTRE DU 3e TYPE ou INTOX ?"

Se référer au contexte pédagogique de l'étude d'une phénoménologie OVNI, voir les autres articles qui approfondissent le sujet.

Le vidéaste utilise une carte heuristique pour noter la crédibilité d'un cas ovni et la propose à la communauté pour l'évaluer. Nous allons dans cette courte étude répondre à quelques unes de ses interrogations.


Introduction — Pourquoi cette critique, pour qui, et pour quoi faire ?

Référence du schéma utilisé — La grille heuristique dite « CREDISCORE » (telle qu’employée par le vidéaste) constitue le cadre d’évaluation étudié dans ce rapport. Pour faciliter la lecture, le schéma original est reproduit ci‑dessous (Figure ) ; il permet d’identifier visuellement les deux piliers (« Témoignages » / « Preuves »), les branches de critères et la logique d’addition en un « Total de l’affaire » mentionnés tout au long de l’Introduction et des Chapitres 1–2.

Pour les procédures opérationnelles détaillées, voir également les Annexes à (fiches et gabarits prêts à l’emploi).

Figure — Schéma « CREDISCORE » (grille heuristique utilisée dans la vidéo)

 

 

 

Dans un paysage informationnel saturé, les affaires dites « extraordinaires » - dont les cas OVNI ne sont qu’un exemple emblématique - se heurtent à une double difficulté : l’incertitude intrinsèque des données (témoignages, images, traces) et la complexité des contextes (sociaux, techniques, médiatiques) dans lesquels elles émergent. Le présent article a un objet simple et concret : examiner de manière critique et pédagogique le CREDISCORE, une grille heuristique de crédibilité, afin d’en montrer l’utilité, d’en délimiter les limites, et de proposer une méthodologie actualisée adaptée à la complexité contemporaine.

Cette critique n’est pas un « procès » de l’outil, mais un levier d’apprentissage partagé. Notre posture est pédagogique : rendre les critères intelligibles au profane, opératoires pour l’expert, et réplicables pour les équipes qui souhaitent comparer des dossiers dans le temps. Nous cherchons à transformer une grille utile en instrument robuste, c’est-à-dire transparent dans ses règles, traçable dans ses décisions et améliorable par itérations.

 

Une méthodologie pensée pour la complexité

 

À quoi sert cette critique ?

 

Ce que nous proposons

 

Comment lire l’article

 

Portée et limites

Notre proposition vise la rigueur sans techniciser inutilement. Elle n’épuise pas tous les cas ni toutes les écoles méthodologiques, mais elle offre un socle commun pour discuter, tester, et itérer. Dans cet esprit, nous assumons une réflexivité : chaque amélioration proposée est documentée, testable, et révisable.


Partie 1 — Principes directeurs et points critiques du CREDISCORE

 

1) Deux piliers additionnés : Témoignages et Preuves

Le CREDISCORE sépare ce que disent les personnes (témoignages) de ce qui peut être vérifié (preuves matérielles, documents, analyses), puis additionne les deux. Cette séparation rend la décision intelligible et évite de confondre récit et vérification. Concrètement, on note d’abord les témoignages, puis les preuves, on affiche les deux sous-scores et seulement ensuite le total. Cela permet d’identifier immédiatement ce qui manque (par exemple, des preuves indépendantes), de limiter les interprétations hâtives et de guider la suite de l’enquête.

2) Cas « extraordinaires » plus exigeants ; traçabilité institutionnelle valorisée

Plus un récit est inhabituel (rencontre rapprochée, effets physiques spectaculaires), plus la barre des preuves doit être haute. Les pièces issues d’institutions identifiables (police, hôpital, armée, laboratoire) ont davantage de poids parce qu’elles sont traçables : on sait qui a fait quoi, quand et comment. On évite ainsi d’accorder trop de crédit à des histoires impressionnantes sans dossier solide. La règle opérationnelle est simple : pas de preuves traçables, pas de classement en « solide ».

3) Le score comme outil de clôture narrative

Le score sert de « panneau de sortie » : il synthétise l’enquête et rend la décision lisible pour tous. Il ne doit jamais être affiché seul : on l’accompagne d’un court encadré qui explique ce qui a le plus pesé, ce qui a limité l’évaluation, les points encore discutés et les actions recommandées. Cette mise en scène finale évite l’illusion d’objectivité d’un chiffre nu et oriente la suite du travail.

4) Barèmes internes : le besoin d’un manuel de codage

Les plages de note (de −2 à +2) n’indiquent pas, à elles seules, quand choisir une valeur plutôt qu’une autre. Sans règles écrites et exemples concrets, deux évaluateurs compétents peuvent aboutir à des notes différentes. Un manuel de codage avec définitions opératoires, cas limites et petits arbres de décision stabilise les pratiques, améliore l’accord entre évaluateurs et rend l’outil plus juste et reproductible.

5) Recouvrements entre rubriques et double comptage

La même information peut, par inadvertance, rapporter des points dans plusieurs rubriques (par exemple « rapport officiel » et « expertise »), gonflant artificiellement le score. Pour l’éviter, on adopte la règle « une pièce = une bonification » avec une priorité unique, et on attribue à chaque artefact un identifiant qui empêche tout doublon. Résultat : un score plus fidèle et plus transparent.

6) Remplacer « avant / après 1990 » par une échelle d’authenticité forensique

L’année d’une photo ou d’une vidéo n’est pas un bon indicateur de fiabilité. Ce qui compte, c’est l’authenticité vérifiable : métadonnées cohérentes, intégrité du fichier, audit indépendant, chaîne de conservation documentée. Une échelle simple à quatre niveaux (de « provenance floue » à « vérifié par un tiers avec traçabilité complète ») modernise la grille et évite les jugements anachroniques.

7) Rendre visible l’incertitude

Un score unique donne une impression trompeuse de précision. Il faut afficher une marge (par exemple « 62 ± 5 ») issue du double codage et, si possible, d’estimations statistiques simples. Indiquer aussi le degré d’accord entre évaluateurs renforce l’honnêteté de la décision. Cette transparence protège contre les malentendus et rend la comparaison des affaires plus fiable.

8) Énaction et réflexivité : le cadre co-construit l’objet

Un instrument n’est jamais neutre : ses catégories et ses poids influencent l’objet évalué. Il est donc essentiel d’expliciter les choix, d’en conserver l’historique et de les ajuster à la lumière des retours d’expérience. Cette réflexivité assumée fait du CREDISCORE un outil apprenant, capable de s’améliorer sans perdre sa cohérence.

9) Ethnométhodologie : rendre publiques les raisons des notes

Chaque note doit être compréhensible par un lecteur externe : règle appliquée, sources consultées, raison de la décision. Un court « journal des décisions » par critère suffit, à condition d’être systématique. La publicité de ces justifications crée la confiance, permet l’audit et la réévaluation indépendante, et ancre l’outil dans une culture de responsabilité.

10) Feuille de route pour fiabiliser et moderniser

Pour passer d’une bonne grille à un instrument robuste : publier des barèmes calculables et illustrés, adopter l’échelle forensique des médias, mesurer l’accord entre évaluateurs et afficher la marge d’erreur, définir des seuils d’interprétation clairs, empêcher le double comptage, et recalibrer régulièrement sur des cas étalons. À la clé : des décisions plus comparables, plus justes et plus cumulatives.
 


Partie 2 — Développement didactique (double lecture)

1) Deux piliers additionnés : Témoignages + Preuves

2) Extraordinaire plus exigeant, traçabilité valorisée

3) Le score comme heuristique de clôture

4) Barèmes internes : écrire le manuel

5) Double comptage : éviter de compter deux fois

6) Remplacer « avant / après 1990 » par une échelle d’authenticité

7) Rendre visible l’incertitude

8) Énaction et réflexivité

9) Ethnométhodologie : rendre les raisons visibles

10) Feuille de route opérationnelle


 

 

Tableau A — Problématique scientifique du CREDISCORE

 

Aspect évalué

Constat

Risque / biais

Impact

Pour la robustesse

Criticité

Barèmes non explicités

Plages de note sans règles précises

Variabilité entre évaluateurs, non-reproductibilité

Scores non comparables

Manuel de codage détaillé + barèmes chiffrés

Très haute

Fiabilité entre évaluateurs

Pas d’accord mesuré ni de re-notation

Illusion de précision

Décisions instables

Double codage, coefficient kappa de Cohen ≥ 0,70, re-notation différée

Très haute

Double comptage

Rubriques qui se recouvrent

Gonflement artificiel du score

Surévaluation de certains cas

Règles anti-double-compte + unicité « une pièce = une rubrique »

Haute

Pondérations implicites

Poids non justifiés (ex. Preuves > Témoignages)

Biais normatif caché

Orientation systématique

Justification théorique ou calibration sur cas étalons

Haute

Critère visuel daté

« Avant / après 1990 »

Anachronisme

Faux positifs/négatifs

Échelle d’authenticité forensique (4 niveaux)

Haute

Pénalité cas extraordinaires

Malus fixe non documenté

Conservatisme indifférencié

Sous-notation possible

Portes non compensatoires et seuils modulés

Moyenne–Haute

Indépendance des témoins

Critère peu opérationnel

Contamination des récits

Surévaluation du nombre

Tests d’indépendance (co-présence, graphes relationnels)

Haute

Contradictions

Traitement binaire

Effet couperet

Injustice sur micro-écarts

Graduation (mineure/majeure/récurrente)

Moyenne

Seuils d’interprétation

Absents ou flous

Ambiguïté des verdicts

Lectures divergentes

Classes normalisées (faible / incertain / solide / fort)

Moyenne

Incertitude

Score ponctuel sans fourchette

Opacité

Décisions trop tranchées

Score avec intervalle de confiance ; accord publié

Haute

Calibration & cas étalons

Manquants

Dérive des barèmes

Incohérence dans le temps

Panel d’étalons + ré-étalonnage périodique

Moyenne–Haute

Traçabilité des décisions

Faible

Audit difficile

Confiance limitée

Journal des décisions par critère + pièces référencées

Moyenne


 

 

Tableau B — Concepts & outils pour critiquer et améliorer

Concept / outil

Définition brève

Pour auditer / critiquer

Pour améliorer (actions)

Énaction / Autopoïèse

L’observateur et l’instrument co-construisent l’objet évalué

Rendre visibles les choix et versions

Publier les options, apprendre/ajuster les poids

Ethnométhodologie / Accountability

Méthodes et justifications compréhensibles publiquement

Repérer les décisions non justifiées

Manuel + « grand livre » des décisions

Cybernétique de second ordre

L’évaluateur fait partie du système évalué

Détecter dérive et effets de halo

Boucles d’auto-correction (plan–faire–vérifier–agir)

Accord entre évaluateurs (kappa de Cohen)

Mesure l’accord au-delà du hasard

Mesurer la reproductibilité

Double codage ; viser kappa ≥ 0,70

Test–retest

Stabilité des scores dans le temps

Détecter instabilité

Re-notation à délai (par ex. 14 jours)

Cohérence interne (alpha de Cronbach)

Cohérence des items d’une même dimension

Repérer items faibles

Ajuster/supprimer les items problématiques

Chaîne de conservation (« custody »)

Traçabilité des artefacts et de leurs détenteurs

Identifier les ruptures de traçabilité

Formulaires horodatés, scellés, empreintes numériques

Forensique image/son

Authenticité, intégrité et contexte des médias

Éviter les jugements datés

Échelle d’authenticité (4 niveaux) + audits tiers

Analyse multicritères (AHP/MAUT)

Pondération et agrégation structurée de critères

Tester la cohérence des poids

Documenter les poids, faire des analyses de sensibilité

Cadre bayésien

Évidence comme mise à jour de vraisemblance

Éviter le double comptage d’indices

Utiliser des rapports de vraisemblance ou éviter les doublons

Courbe ROC / Seuils

Taux de vrais/faux positifs selon le seuil

Évaluer la pertinence des seuils

Ajuster seuils via panel d’étalons

Graphes relationnels (indépendance)

Cartographie des liens entre témoins

Détecter collusions ou co-présences

Indice d’indépendance et atténuation du barème « nombre »

Rééchantillonnage (bootstrap) / Intervalle de confiance

Quantifie la variabilité des scores

Donner une fourchette au score

Afficher « Total ± intervalle de confiance »

GRADE (hiérarchie de preuve)

Classement des niveaux de preuve

Positionner chaque pièce dans une hiérarchie

Aligner la branche « Preuves » sur ces niveaux

Pré-enregistrement

Protocole décidé avant l’analyse

Réduire les biais « après coup »

Déposer la grille et les règles avant codage

Versionnage (historisation)

Suivi des versions et des changements

Traçabilité complète

Dépôt public des versions, journaux de modifications

Vignettes phénoménologiques

Descriptions denses et contextualisées

Préserver la « texture » qualitative

5–10 lignes explicatives par critère avant la note


 

 

Glossaire et acronymes

PDCA : cycle Plan–Do–Check–Act d’amélioration continue.

Bootstrap : rééchantillonnage pour estimer l’incertitude.

ELA : analyse des niveaux d’erreur de recompression (traces d’édition).

PRNU/SPN : empreintes de bruit de capteur pour authentifier une image.

GRADE : hiérarchie de niveaux de preuve.

ROC : outil pour choisir des seuils en arbitrant vrais/faux positifs.

ICC : stabilité test–retest (cible ≥ 0,75).

κ de Cohen : accord inter‑évaluateurs au‑delà du hasard (cible ≥ 0,70).

Cybernétique de second ordre : l’évaluateur fait partie du système ; boucles d’auto‑correction.

Accountability : justifications publiques des méthodes et décisions.

Énaction : co‑construction sujet/monde ; l’outil influence l’objet évalué.


ANNEXE 1 — Fiche d’authenticité forensique des médias (modèle & échelle)

Cette fiche standardise l’évaluation de l’authenticité d’un média (photo, vidéo, audio, document). Elle remplace les critères datés (ex. « avant/après 1990 ») par une métrique d’authenticité vérifiable.

Champ

Valeur / Procédure

ID de la pièce (unique)

[à compléter]

Description / contexte de capture

[à compléter]

Source / origine (lien, personne, dépôt)

[à compléter]

Date/heure (TZ) et lieu (coordonnées)

[à compléter]

Détenteur actuel / responsables successifs

[à compléter]

Format & conteneur (codec, résolution, fréquence)

[à compléter]

Empreintes numériques (SHA-256, MD5)

[à compléter]

Fichier source disponible ? (oui/non)

[à compléter]

Métadonnées EXIF/XMP (appareil, objectif, GPS, horodatage)

[à compléter]

Intégrité (hash initial vs vérif ; altérations détectées)

[à compléter]

Traitements/exports (logiciel, version, paramètres)

[à compléter]

Tests forensiques (ELA/PRNU/Rolling shutter/Deepfake/Audio)

[à compléter]

Cohérence spatio-temporelle (météo, soleil/ombres, étoiles)

[à compléter]

Chaîne de conservation (voir tableau ci-dessous)

[à compléter]

Audit indépendant (organisme, rapport, date)

[à compléter]

Niveau d’authenticité (échelle 1–4)

[à compléter]

Conclusion synthétique & recommandations

[à compléter]

Signatures/visa (évaluateur, superviseur, date)

[à compléter]


Chaîne de conservation (timeline) :

Étape #

Date/heure (TZ)

Acteur (nom/fonction)

Action

Empreinte / référence

1

[à compléter]

[à compléter]

[à compléter]

[à compléter]

2

[à compléter]

[à compléter]

[à compléter]

[à compléter]

3

[à compléter]

[à compléter]

[à compléter]

[à compléter]

4

[à compléter]

[à compléter]

[à compléter]

[à compléter]

5

[à compléter]

[à compléter]

[à compléter]

[à compléter]


Échelle d’authenticité (4 niveaux) :

Niveau

Définition opérationnelle

1 — Non documenté

Provenance floue, fichier non source, métadonnées absentes/incohérentes, aucune vérification d’intégrité.

2 — Documenté partiellement

Provenance identifiable, métadonnées partielles, cohérence spatio-temporelle plausible, aucune vérification indépendante.

3 — Vérifié en interne

Fichier source ou copie certifiée (hash), métadonnées cohérentes, tests forensiques de base passés, chaîne de conservation décrite.

4 — Audité indépendamment

Vérification externe documentée, intégrité confirmée (hash concordant), cohérence spatio-temporelle forte, chaîne de conservation complète et signée.

• Fichier source et empreinte (SHA-256) disponibles

• Métadonnées cohérentes (horodatage, appareil, GPS)

• Cohérence spatio-temporelle vérifiée (météo/ombres/étoiles)

• Tests forensiques réalisés et tracés (ELA/PRNU/etc.)

• Chaîne de conservation documentée et signée

• Audit indépendant réalisé (si nécessaire)

• Niveau d’authenticité attribué et justifié


ANNEXE 2 — Protocole de double codage et estimation de l’incertitude

 

Cette annexe décrit la procédure standard pour mesurer l’accord entre évaluateurs, estimer une marge d’incertitude sur les scores et stabiliser les décisions.

• 1) Formation & manuel : brève formation commune ; lecture du manuel de codage ; cas d’entraînement « frontières ».

• 2) Codage indépendant : au moins deux évaluateurs notent séparément les critères (Témoignages / Preuves).

• 3) Agrégation provisoire : calcul des sous-scores et du total pour chaque évaluateur.

• 4) Mesure d’accord : κ de Cohen (nominal) ou κ pondéré (ordinal) ; viser κ ≥ 0,70 par critère.

• 5) Arbitrage : discussion des divergences > seuil (ex. |diff| ≥ 2) ; consignation de la décision.

• 6) Test–retest : re-notation différée (ex. J+14) pour estimer la stabilité.

• 7) Intervalle de confiance : estimation par rééchantillonnage (bootstrap) ; afficher « Total ± marge ».

• 8) Règle de décision : franchir un seuil de classe seulement si (Total − marge) ≥ seuil et si l’exigence minimale « Preuves » est satisfaite.


Tableau de suivi (gabarit) :

Dossier

Critère

Note A

Note B

Différence

Arbitrage (finale)

Règle (ref.)

Commentaires

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

• κ de Cohen global et par critère ; cible ≥ 0,70.

• Écart absolu moyen entre évaluateurs ; cible ≤ 0,5 point.

• Marge autour du total via bootstrap (≥ 1000 rééchantillonnages).

• Stabilité test–retest (ICC) ; cible ≥ 0,75. 


ANNEXE 3 — Gabarit du « Grand livre des décisions »

 

Documenter, pour chaque dossier et critère, la raison de la note, les sources, les contre-arguments et la décision d’arbitrage.

ID dossier

Critère (réf.)

Règle (manuel §)

Note

Fourchette

Sources (IDs)

Justification (5–10 lignes)

Contre-arguments

Doutes résiduels

Décision

Actions suivantes

Évaluateur

Date/heure

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

• Rédiger la justification avant la note.

• Citer précisément les pièces (ID, page/horodatage).

• Une pièce → une rubrique (anti-double comptage).

• Consigner désaccords et arbitrage.

• Signer, dater, versionner.


ANNEXE 4 — Fiche détaillée « Chaîne de conservation » (custody)

 

Documenter de bout en bout la trajectoire d’une pièce pour assurer intégrité, authenticité et traçabilité.

Champ

Valeur / Procédure

ID unique de la pièce

[à compléter]

Type (photo/vidéo/audio/document/prélèvement)

[à compléter]

Description / contexte de collecte

[à compléter]

Localisation initiale (adresse/GPS)

[à compléter]

Collecteur initial (nom/fonction/organisation)

[à compléter]

Date et heure de collecte (TZ)

[à compléter]

Support physique / format de fichier

[à compléter]

Empreinte initiale (SHA-256)

[à compléter]

Conditions de conservation (température, scellés)

[à compléter]


Journal des transferts :

Étape

Date/heure

De

À

Action

Support

Hash (avant/après)

Obs.

1

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

2

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

3

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

4

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

5

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

6

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

7

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]


Contrôles d’intégrité périodiques :

Date

Fichier/Support

Hash attendu

Hash mesuré

Résultat

Opérateur

Commentaires

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]


Anomalies / incidents :

Date/heure

Type

Description

Impact

Mesures

Responsable

Visa

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]


ANNEXE 5 — Guide d’audit forensique image/vidéo (pas-à-pas)

 

• 1) Acquisition : fichier source ou copie certifiée (hash) ; documenter provenance et chaîne.

• 2) Inventaire technique : conteneur, codec, résolution, fps ; extraire métadonnées (horodatage, appareil, GPS).

• 3) Intégrité : vérifier empreintes ; contrôler écritures ultérieures non tracées.

• 4) Cohérence spatio-temporelle : météo, soleil/ombres, astres, topographie.

• 5) Signatures capteur : ELA (image), PRNU/SPN, rolling shutter (vidéo), artefacts d’insertion.

• 6) Physique apparente : vitesses angulaires, parallaxe, profondeur ; tester explications prosaïques.

• 7) Pipelines d’édition : exports, filtres, stabilisation ; logiciels et versions.

• 8) Détection IA : indices de génération/altération (incohérences reflets/ombres/bokeh/bruit).

• 9) Audit indépendant : solliciter une revue tierce si le cas est sensible.

• 10) Conclusion : assigner un niveau d’authenticité (1–4) et consigner limites/doutes.


Grille de constat :

Test

Résultat

Preuves / Référence

Commentaires

Métadonnées (horodatage/appareil/GPS)

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

Hash (source vs copie)

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

ELA / Artefacts de compression

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

PRNU/SPN (bruit de capteur)

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

Rolling shutter / Motion blur

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

Cohérence ombres/soleil/météo

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

Indices d’IA (visages/textures/miroirs)

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]

Concordance scène/topographie

[OK / KO / N.D.]

[capture/mesure/référence]

[à compléter]


Synthèse d’audit :

Critère

Indice clé

Évaluation

Niveau (1–4)

Incertitudes

Intégrité du fichier

[élément(s)]

[faible / moyen / fort]

[1–4]

[limites/doutes]

Cohérence spatio-temporelle

[élément(s)]

[faible / moyen / fort]

[1–4]

[limites/doutes]

Signatures capteur

[élément(s)]

[faible / moyen / fort]

[1–4]

[limites/doutes]

Traces d’édition

[élément(s)]

[faible / moyen / fort]

[1–4]

[limites/doutes]

Explications prosaïques testées

[élément(s)]

[faible / moyen / fort]

[1–4]

[limites/doutes]


 

 ANNEXE 6 — Manuel de codage (gabarit + exemple)

 

• Intitulé du critère et objectif (ce que l’on mesure).

• Définition opératoire (conditions minimales, observables).

• Échelle de notation (de −2 à +2) avec ancres décrites.

• Exemples frontières (cas limites).

• Arbre d’aide à la décision (3–5 nœuds).

• Erreurs fréquentes à éviter.

• Traçabilité : pièces utilisées, liens, horodatages.


Exemple — Critère « Cohérence inter-témoins » :

Note

Description d’ancrage

Exemple concret

+2

Récits concordants sur trame & détails cruciaux ; divergences minimes.

Trois témoins indépendants : mêmes horaires et positions.

+1

Trame concordante ; quelques divergences non déterminantes.

Détails secondaires varient, chronologie concorde.

0

Cohérence indécidable ou mixte.

Deux concordent, un diverge ; données insuffisantes.

−1

Divergences notables sur éléments centraux.

Incompatibilités distance/durée.

−2

Contradictions majeures et récurrentes.

Versions successives incohérentes ; contradictions sur le lieu.

• Q1 : Indépendance des témoins ? Si non → max 0.

• Q2 : Trame temporelle concordante ? Si non → −1 à −2.

• Q3 : Détails cruciaux concordants ? Si oui → +1 ; sinon → 0 à −1.

• Q4 : Contradictions récurrentes ? Si oui → −2.


ANNEXE 7 — Seuils & classes de décision (avec portes non compensatoires)

 

Cartographie des classes d’interprétation avec exigences minimales sur le pilier « Preuves ».

Classe

Total (T+P)

Exigence « Preuves »

Interprétation

Actions recommandées

Faible

< 40

Affaire insuffisamment étayée.

Clore ou collecter de nouvelles pièces de base.

Incertain

40–59

Preuves ≥ 20

Affaire ouverte mais lacunaire.

Prioriser analyses forensiques et indépendances des témoins.

Solide

60–74

Preuves ≥ 30

Affaire bien étayée, cohérente.

Audits externes ciblés ; rapport provisoire.

Fort

≥ 75

Preuves ≥ 40

Affaire très bien étayée.

Publication complète ; mise à disposition des données.

Règle : franchir un seuil seulement si (Total − marge) ≥ seuil et exigence « Preuves » satisfaite.



ANNEXE 8 — Panel de cas étalons pour calibration

 

Sélectionner 5–12 cas représentatifs pour tester et ajuster barèmes et seuils, et vérifier la stabilité inter-évaluateurs.

ID étalon

Type de cas

Brève description

Témoignages (réf.)

Preuves (réf.)

Total (réf.)

Classe (réf.)

Remarques

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

[à compléter]

• Inclure au moins : (A) témoignages forts / preuves faibles ; (B) inverse ; (C) médias audités indépendamment.

• Documenter les écarts observés et leurs causes ; ajuster les barèmes si nécessaire.
 


 ANNEXE 9 — Fiche synthèse standard d’une affaire

 

Une page de synthèse à joindre à toute publication du score.

Rubrique

Contenu

Titre de l’affaire / ID

[à compléter]

Résumé en 5 lignes

[à compléter]

Contexte (date/lieu/conditions)

[à compléter]

Témoignages — sous-score

[à compléter]

Preuves — sous-score

[à compléter]

Total (± marge) et classe

[à compléter]

Indicateurs de qualité (κ, test–retest)

[à compléter]

Pièces principales (IDs et liens)

[à compléter]

Points forts déterminants

[à compléter]

Limites et doutes

[à compléter]

Actions recommandées (priorisées)

[à compléter]

Version de la grille / barèmes utilisés

[à compléter]

Acronyme

Définition

AHP/MAUT

Méthodes d’analyse multicritères pour pondérer et agréger des critères.

ELA

Error Level Analysis ; détection de zones de recompression anormales.

GRADE

Cadre de hiérarchisation des niveaux de preuve.

ICC

Intraclass Correlation Coefficient ; stabilité test–retest.

IC

Intervalle de confiance ; fourchette d’incertitude statistique.

κ (kappa)

Accord inter‑évaluateurs au‑delà du hasard (κ ≥ 0,70 visé).

PDCA

Plan–Do–Check–Act ; boucle d’amélioration continue.

PRNU/SPN

Empreintes de bruit de capteur pour authentifier une image.

ROC

Receiver Operating Characteristic ; choix de seuils (vrais/faux positifs).