La France forte et ses métadonnées

L’affiche de campagne de Nicolas Sarkozy crée l’événement. Elle est abondamment détournée et l’image publiée par lefigaro.fr a permis à @shloren d’établir que la photo de paysage marin qui figure en fond a été prise en Grèce.

L’analyse ayant conduit à cette identification est décrite sur de nombreux sites, par exemple Pcinpact, Numerama, lejdd.fr.

Le présent billet prend prétexte du sujet pour ajouter quelques précisions, et expliquer surtout l’articulation entre les différents types de métadonnées qu’une image numérique peut contenir. La question de leur convergence possible vers une seule technologie (XMP) est aussi abordée à l’occasion de la récente publication d’un nouveau standard.

Rappelons tout d’abord brièvement qu’une image numérique fixe (jpeg ou tiff) peut comporter essentiellement trois catégories de métadonnées embarquées, c’est-à-dire stockées dans le fichier image:

  • les informations IPTC/IIM (Information Interchange Model) définies dès 1991 par l’IPTC (International Press and Telecommunications Council) – organisation internationale qui développe des standards d’échange de données pour la presse. Leur succès vient de l’adoption du modèle par Adobe en 1994 pour définir dans Photoshop les informations associées à une image. Ces “champs IPTC” sont renseignés manuellement lors de l’indexation de l’image. Le format est considéré comme obsolète par l’IPTC et remplacé par un nouveau standard basé sur XMP (voir ci-dessous). Les anciens champs IPTC demeurent néanmoins toujours très utilisés par les professionnels.
  • les données EXIF (EXchangeable Image File) qui sont des informations d’ordre technique contenues dans l’image. Le format Exif a été développé en 1995 par les industriels japonais regroupés au sein du JEIDA, devenu ensuite le JEITA (Japan Electronics and Information Technology Industries Association). C’est un standard de fait car il est supporté par tous les fabricants d’appareils numériques (avec des variantes propriétaires). Les coordonnées GPS sont stockées dans les données Exif. Presque toutes les données Exif sont renseignées automatiquement par l’appareil lors de la prise de vue.
  • les données XMP (eXtensible Metadata Platform). Le format XMP a été créé par Adobe en septembre 2001. Il utilise une version simplifiée de RDF (Resource Description Framework), modélisation développée par le W3C et base du Web sémantique. XMP est désormais un standard ISO (partie 1 ici).

Lorsqu’elles sont présentes dans une image, ces informations sont évidemment stockées en des endroits différents du fichier. Cette dispersion explique d’ailleurs que l’usage d’outils inappropriés peut introduire de graves discordances entre les métadonnées lorsque les processus de synchronisations ne sont pas respectés entre IPTC/IIM, Exif et XMP.

Contrairement à ce que l’on peut lire très souvent, l’affiche de campagne de NS ne comporte pas seulement des données Exif. Elle contient les trois types de métadonnées – IPTC/IIM, Exif, XMP – maintenues en cohérence lors des traitements réalisés avec Photoshop CS5 Macintosh. Leur analyse immédiate (image ci-dessous) fournit les renseignements les plus importants qui ont permis de retrouver l’agence commercialisant la photo (Tetra Images) et d’établir qu’elle a été prise en Grèce.


Une recherche de la photo originale avec le nom d’objet IPTC (le numéro 129309779) ne permet pas de retrouver celle-ci sur l’agence Tetra, mais elle est présente dans le cache de Google chez Jupiter Images et avec cette référence. Il est probable que ces agences l’ont supprimé de leurs collections à la suite du buzz sur l’affiche.

La photo est par contre distribuée sous d’autres références par Fotosearch, InMagine et WebStockPro. L’analyse des données Exif de cette dernière fournit la date de prise de vue du cliché initial, le 28 mai 2011.

L’examen précis des données XMP montre aussi que la photo a subi du 12 au 14 février 2012 une série de 38 modifications à l’aide de Photoshop CS 5 Macintosh. L’affiche a donc sans doute été réalisée un peu précipitamment, ce que semble confirmer d’ailleurs la présence des métadonnées, indice d’un travail de studio que l’on est en droit de juger assez peu professionnel.

Métadonnées des images numériques – vers le tout XMP ?

La plupart des outils modernes de gestion des métadonnées des images maintiennent une parfaite cohérence entre les données IPTC/IIM et XMP. Autrement dit, Adobe et les principaux acteurs du secteur n’ont toujours pas abandonnés l’ancien standard IPTC/IIM. La conversion complète des métadonnées descriptives à XMP, engagée depuis presque 10 ans maintenant, n’est pas encore achevée. Le poids des habitudes et le manque d’intérêt des professionnels pour les possibilités de XMP expliquent que le changement de standard est très lent.

Le 30 janvier dernier, le CIPA (Camera & Imaging Products Association), organisme qui regroupe la plupart des fabricants japonais d’appareils photos numériques, a publié un nouveau standard qui pourrait accélérer le processus de migration vers XMP.

Ce standard nommé Exif 2.3 metadata for XMP établit une correspondance entre les données Exif et leur expression en XMP. Il entérine en fait une pratique déjà mise en œuvre dans les versions récentes de Photoshop, mais il a désormais force de standard pour les plus importants fabricants d’appareils. L’intérêt n’est probablement pas à rechercher du côté des performances; ce n’est guère un problème pour un programme de gérer des données en trois endroits différents dans une image, et les versionnings utilisés avec XMP rendent de fait la nouvelle technologie plus lourde (légèrement) que la lecture/écriture des actuelles données Exif.

Il est encore trop tôt pour juger de l’avenir de cette initiative. On peut remarquer toutefois que l’analyse d’images produites directement par le nouveau Nikon D4, en prenant soin donc de sélectionner des images qui n’ont pas transité par des logiciels de traitement, montre que cet appareil produit nativement un segment XMP vide.

L’une des hypothèses circulant actuellement chez les spécialistes des métadonnées est que Nikon pourrait produire directement les information Exif au format XMP à l’occasion d’une évolution de firmware (ce n’est qu’une hypothèse, attention).

Si l’implémentation de ce nouveau standard se confirme, ce serait un pas important vers la convergence technologique des différents standards d’expression de métadonnées qui traînent un lourd historique et peuvent apparaître hétéroclites. Ce serait aussi la première fois que des métadonnées générées automatiquement (Exif) et des métadonnées rédigées par des humains (IPTC/IIM) seraient codées dans une même structuration RDF, ce qui conduirait, à terme, à une vaste collection de données facilement exploitables par les outils du Web sémantique.

14 Reponses à “ La France forte et ses métadonnées ”

  1. Bonjour Patrick. A ma connaissance, les images réalisées par le D4 qui circulent sur le Net ont été réalisées avec un firmware de pré-série qui ne correspond pas à celui qui sera livré avec les premiers appareils. La version 0.47 du “Creative Tool” que tu as fais apparaître irait d’ailleurs en ce sens. Tous les firmware des appareils Nikon que j’ai manipulés étaient au moins des 1.0 Même si ce Creative Tool fait référence à autre chose, il me semble logique de supposer que les premiers appareils commercialisés démarreront au minimum avec une version 1.0.
    La gestion des données XMP que je connais et que j’utilise(celles qui sont liées au traitement des raws par Adobe Camera Raw), sont gérées au choix comme un fichier associé au fichier Raw (même numéro de fichier – extension différente en .xmp), ou stockées dans un répertoire dédié par Photoshop. D’autres logiciels écrivent les données XMP dans le fichier principal, mais à ma connaissance ce n’est pas le cas de Photoshop. Si c’est Adobe qui donne le la, penses-tu qu’ils vont changer la procédure?

  2. Bonjour Thierry. Oui, tu as raison, on ne peut rien dire actuellement sur le comportement du D4 lorsqu’il sera commercialisé. Je note juste que ce que l’on voit actuellement comporte du XMP “vide” en sortie de boîtier (et au passage, ce n’est pas si facile de trouver une image qui ne soit pas passée dans un logiciel quelconque…). Je colporte [sic] aussi ce qui se dit ailleurs sur la possibilité de l’écriture Exif native en XMP dès le D4. On verra.
    Je ne m’intéresse pas au Raw ici. Ce n’est pas un standard. Les logiciels Adobe peuvent incorporer le XMP dans les images jpeg et tiff (et ailleurs) depuis que le format existe.

  3. Bonjour Patrick,
    Pour aller dans le même sens que Thierry Dehesdin, les données XMP ne seraient utilisables en pratique que si elles étaient intégrées aux fichiers RAWs originaux, toutes marques confondues, c’est à dire peut-être jamais. Le RAW, le format brut, présente des avantages considérables sur l’enregistrement en TIFF/JPEG, beaucoup de professionnels ont tardé à l’adopter, c’était une nouvelle démarche technique qu’il fallait acquérir ; précédemment, les photographes étaient choyés, maternés par les laboratoires qui prenaient en charge et assumaient ces aspects techniques. Il avait le regard, leur déclenchement valait de l’or au sens propre et figuré, celui qui pouvait se payer voyages, matériels, consommables et laboratoire possédait un réel avantage. Derrière un regard tel celui de Cartier-Bresson, on n’identifiait pas le travail du laborantin qui traitait et interprétait ses images en fonction de ce que l’ »auteur » voulait faire passer… Désormais, ce travail a réintégré la sphère du travail du photographe, comme aux temps anciens, comme les peintres sérieux qui se préoccupent de la qualité et de la durabilité des produits qu’ils utilisent, voire qu’ils produisent.
    Ce changement fondamental des tâches du photographe se traduit, après tri, par une accumulation de fichiers RAWs dont seule une petite partie se retrouve dans les bases de données sous forme ordinaire (TIFF/JPEG). Il est donc indispensable que ces fichiers soient documentés par des métadatas, l’artifice d’Adobe consistant en un fichier XMP attaché n’est pas admissible. Ces fichiers ne sont d’ailleurs pas attachés au même titre que les fichiers HTML et leur dossier ; on peut déplacer ou renommer l’un sans que l’autre suive ! Le risque de perte de ce second fichier n’est pas une possibilité, c’est une quasi-certitude ; il est dès lors difficile de lui confier dès données capitales pour la gestion des images. Je suis très pessimiste sur l’adoption généralisée de ce format qui, en outre, est propre à Adobe, et cette firme ne dominera probablement pas éternellement le marché du traitement des images.

  4. Je retire de cette intéressante discussion l’impression générale d’un caractère hyperspécialisé et d’une insécurité des formats de métadonnées, globalement encore non stabilisés, soit un état pas éloigné de la problématique actuelle du casse-tête des droits d’auteur.

    Pour poursuivre notre discussion en séminaire, je pense que je n’ajouterai finalement pas les métadonnées dans le tableau de la reconfiguration du photographique, en raison de leur intégration insuffisante dans les pratiques privées. Cela fait moins de 2 ans que les tags sont effectivement échangeables, sous forme de données IPTC, entre Flickr et iPhoto – une standardisation encore absente de Picasa. Si on regarde du côté de Facebook, d’Instagram ou de Pinterest, on voit que la tendance n’est pas à une exploitation accrue de ces informations. On est donc loin du compte. Mis à part les données de datation du fichier, automatiquement présentes et effectivement utilisées par les logiciels, on peut considérer qu’aucune métadonnée n’est véritablement mobilisée de manière active pour la recherche ou le classement des images dans les usages grands public. On peut également souligner la difficulté représentée par l’absence de standard documentaire entre photo et vidéo, alors même que ces pratiques ont vocation à se rapprocher de plus en plus.

    De ce point de vue, l’exemple du maintien des données IPTC dans le fichier “La France forte”, que tu signales comme un cas de travail bâclé, pourrait bien être une indication plus générale d’une faible préoccupation, y compris du côté des professionnels, pour la gestion des métadonnées.

  5. @Jean-Luc. Je n’ai pas l’intention d’être l’avocat d’Adobe, mais il me semble important de préciser ici certains faits qui permettent de comprendre les choix technologiques effectués par cette société (à défaut de les approuver complètement). Je suis bien certain d’ailleurs que vous connaissez parfaitement ces faits. Tout d’abord, il n’existe pas de format Raw mais une multitude de formats tous différents développés par les constructeurs d’appareils numériques. Ce n’est pas un standard comme le sont jpeg et tiff. L’initiative Openraw a attiré l’attention sur le problème de la diversité de ces solutions propriétaires souvent peu (ou pas du tout) documentées et a tenté de se constituer en groupe d’influence sur les constructeurs. Cela n’a pas marché. Les constructeurs continuent de s’accrocher à leurs formats propriétaires pour des raisons de stratégies industrielles (surtout ne pas faire comme le voisin), et le support de métadonnées embarquées dans ces formats est le cadet de leurs soucis. La seule initiative concrète pour tenter de remédier à cela vient … d’Adobe avec le format DNG qui supporte les métadonnées XMP embarquées (il a même été créé essentiellement dans ce but). On ne peut reprocher à Adobe de ne pas supporter XMP dans les différentes variétés de Raw. Ce sont bien les constructeurs qui sont ici en cause au premier chef. Pour dire les choses clairement, il est impossible d’écrire des données (meta) de manière fiable dans un format que l’on ne comprend qu’à l’aide d’opérations de rétroingénierie et qui est toujours susceptible d’être modifié par son concepteur.
    Par ailleurs, le format XMP, s’il est bien d’origine Adobe, n’est pas propre à cette société. C’est un standard ISO qui s’appuie sur un standard W3C (RDF) et sur le Dublin Core (un autre standard très utilisé). La partie 1 du standard XMP/ISO vient d’être publiée comme je le rappelle dans mon billet, et une partie 2 devrait suivre. DNG a été lui aussi soumis à l’ISO. Le processus de standardisation est évidemment une stratégie suivie par Adobe, mais il constitue tout de même une indication importante pour les éditeurs tiers qui doivent effectuer des choix.
    Enfin, et sur le fond, la méthode qui consiste à embarquer les métadonnées dans les objets informatiques (que ce soit en IPTC/IIM, Exif ou XMP pour les images) ne signifie aucunement que l’on puisse se passer d’un véritable outil de classement et d’organisation de ces objets, c’est-à-dire une base de données. L’intérêt des métadonnées embarquées se situe du côté de l’archivage et de l’échange, pas pour la recherche.

    @André. C’est un sujet spécialisé, certes, et qui traîne déjà un lourd passé. En tout cas, il n’est pas moins stabilisé que bien d’autres technologies informatiques plus connues, je pense par exemple aux différentes évolutions de HTML ou des formats de traitement de texte sur une période de temps très comparable. Pour ton tableau de la reconfigutration du photographique, je pense néanmoins qu’il serait intéressant de retenir au moins le modèle d’appareil, la date et les coordonnées GPS sous un libellé autodocumentation (c’est une suggestion). Ces données peuvent être utilisées par le grand public pour la recherche et le classement, cf. Flickr.

  6. @Patrick: Ça me fait penser que mon métatableau comprenait un grand 3, l’archivage, que je continue à considérer comme le point noir des pratiques visuelles. La discussion ici suggère de maintenir la question des métadonnées du côté des problèmes plutôt que du côté des solutions… Le manque de clairvoyance des constructeurs à l’endroit des pratiques et des méthodes d’archivage est clairement un problème global: pourquoi n’existe-t-il toujours aucune base de données universelle, robuste et simple d’emploi, équivalente aux standards que sont Word, Photoshop, Facebook ou l’iPhone? J’aurais assez tendance à penser, sur un plan théorique, que si cette solution n’est toujours pas disponible, c’est que l’autoclassement reste un rêve inaccessible, au moins pour les images…

  7. @André: Il faut s’entendre sur le terme standard. Les exemples de produits que tu donnes (Word, Photoshop, Facebook, iPhone) montrent que tu l’entends comme synonyme de quasi-monopole. Je l’utilise plutôt dans son sens habituel en informatique de spécification documentée permettant de développer des produits interopérables. Un standard doit être appropriable. En ce sens, il existe bien des standards d’expression des métadonnées qui ont vocation à être universels, et sont donc du côté des solutions plutôt que des problèmes. Le meilleur exemple actuellement est certainement RDF, dont XMP peut être considéré comme une version simplifiée (certains diraient édulcorée, mais c’est une autre histoire). RDF est ainsi à la base du Web de données, et c’est avec ce genre de technologies que l’on peut espérer voir apparaître des solutions intéressantes pour l’archivage des images.
    Tu parles ensuite d’autoclassement, mais je considère que ce n’est pas là exactement le cœur du sujet. Les techniques de reconnaissance automatique (de visages, de scènes, etc.) auxquelles tu sembles faire allusion ici ne permettent pas encore d’atteindre le rêve inaccessible de l’autoclassement. Mais je ne vois pas bien en quoi les méthodes de post productions humaines (indexation, tags sur Flickr, etc.) ne font pas partie de la reconfiguration du photographique que tu observes, situées à la fois du côté de la communication et de l’exposition selon ton tableau.

  8. @Patrick, je sais que XML est un standard et que les formats RAW ne le sont pas, seulement, en pratique, des métadonnées injectées selon la norme IPTC dans un tel format y restent. C’est une assurance de pérennité.
    Alors, puisque l’on peut y inscrire des IPTC, pourquoi ne le peut-on pas avec XML ?
    Maintenant, je ne suis pas certain que ce soit simplement des caprices industriels qui font qu’un format standard ne se soit pas imposé, tous les capteurs fonctionnent il réellement de façon similaire, ce n’est pas certain et, de plus, ce n’est pas figé et des aspects techniques peuvent nous échapper.
    Enfin les désires des chercheurs et des archivistes ne sont pas ce des photographes. Il faut être conscient que remplir ces champs de données et très chronophages, qu’il y a des masses de fichiers à traiter et que seul un petit nombre atterrisse dans des bases de données. Le jour où des petites mains les remplirons à notre place, à moins que des logiciels s’en charge, peut-être que…

  9. @Jean-Luc: La première spécification IPTC/IIM date de 1991 et la dernière (version 4.1) de 1999. Elle ne concerne donc pas les formats Raw, mais uniquement les formats jpeg et tiff comme il est rappelé sur le site de l’IPTC. On peut trouver par contre des métadonnées Exif dans les fichiers Raw, c’est exact.
    Je suis bien d’accord que documenter des images est un travail fastidieux qui prend du temps, mais cela était déjà le cas avant le numérique. Et je ne suis pas du tout d’accord sur votre appréciation finale. Les besoins documentaires des chercheurs, archivistes, photographes, journalistes, grand public (on peut allonger la liste) ne sont pas exactement identiques. Certes. Mais un standard comme le Dublin Core sur lequel repose XMP est justement conçu comme une sorte de dénominateur commun à tous ces besoins. Donc, commençons par renseigner ce jeu (et même le sous-ensemble restreint du DC qui correspond aux champs IPTC/IIM suffit) et on verra après. Enfin, l’opinion selon laquelle ce travail n’est pas du ressort des photographes (l’histoire des petites mains) montre bien à mon sens qu’il y a là un véritable problème. Quand les photographes descendront de leurs nuages et prendront conscience qu’une image sans description est une image perdue, ils auront beaucoup progressé.

  10. “Enfin, l’opinion selon laquelle ce travail n’est pas du ressort des photographes (l’histoire des petites mains) montre bien à mon sens qu’il y a là un véritable problème. Quand les photographes descendront de leurs nuages et prendront conscience qu’une image sans description est une image perdue, ils auront beaucoup progressé.”
    Le problème est économique Patrick. (Bon on est plus vraiment dans le sujet du fil…)
    Indexer proprement une image, c’est très long. Beaucoup plus que de prendre la photo. Et ça ne procure pas de gratification symbolique comme de mettre son image en ligne sur facebook ou dans une banque d’images lowcost. On retrouve donc ici une logique économique traditionnelle. Que ce soit le photographe ou une petite main qui fassent le boulot, ils entendent être rémunérés proportionnellement au temps consacré à cette tache.
    Le marché lui ce qui l’intéresse c’est le mieux disant. Il y a quelques années Photo-Shelter avait mis en place une banque d’images en exigeant que toutes les photos soient décrites et avec des êtres humains qui jugeaient de la qualité des images et de la qualité de l’indexation. Ils ont arrêtés au bout de 2 ou 3 ans, parce que leurs clients leurs disaient qu’ils adoraient venir sur leur site, qu’il comprenait bien que le temps que PhotoShelter leur faisait gagner avec des images de qualité qui répondaient avec précision à leurs demandes avait un coût, mais qu’au final il préféraient consacrer plus de temps à leurs recherches pour trouver une image moins chère. Nous sommes sur un marché où c’est le moins disant qui l’emporte sur toute autre considération.
    Alors en théorie la plus-value que tu ne gagnes pas sur chaque vente, tu devrais la retrouver sur la multiplication des ventes, puisque ta photo, si elle est bien indexée, apparaîtra aux yeux des clients susceptibles de l’utiliser. Mais soit on joue sur des montants très faibles pour être dans les mieux-disant, et il faudrait la vendre énormément pour récupérer le coût de l’indexation, soit on retombe dans le cas précédent.
    Les photographes veulent bien mettre à disposition pour rien ou presque le fruit de leur travail de prises de vue, parce qu’ils en retirent une gratification symbolique. Mais l’indexation des images est perçue comme un “vrai” travail qui suppose une vraie rémunération.

  11. [...] La France forte et ses métadonnées | Déjà vu Lorsqu’elles sont présentes dans une image, ces informations sont évidemment stockées en des endroits différents du fichier. Cette dispersion explique d’ailleurs que l’usage d’outils inappropriés peut introduire de graves discordances entre les métadonnées lorsque les processus de synchronisations ne sont pas respectés entre IPTC/IIM, Exif et XMP. [...]

  12. Bonjour,

    C’est qu’à moitié en rapport, mais voilà :

    j’ai une question technique de Nikoniste pour Thierry : est-il possible d’espérer envisager de récupérer (mes espoirs sont très faibles) sur la sortie AV d’un D5000 l’information qu’un déclenchement a lieu (j’ai besoin de piloter quelque chose – pas un flash – proprement à chaque déclenchement). Si non, existe-t il des modèles Nikon pour lesquels ce serait “standard”?

  13. @Yves tu as largement dépassé mon seuil de compétence. Il existe des logiciels payants pour déclencher depuis l’ordinateur et au moins un logiciel gratuit (sous Windows) http://www.bernd-peretzke.de/index.php?option=com_content&view=article&id=6:dcamcapture-engl&catid=1:software&Itemid=3 que je n’ai pas testé. Peut-être pourrais-tu récupérer le signal, mais je n’ai pas la moindre idée du comment. (Tu peux me joindre directement pour éviter de pourrir le fil à site[arobase]dehesdin.com)

  14. Bonjour Thierry,

    merci de ta réponse, je suis effectivement tombé sur ces logiciels de pilotage, mais ils ne font pas partie de ce que j’envisage comme première solution . Si question ultérieure, je t’écrirais directement.

Adresser une réponse