Les appareils photo iPhone sont-ils devenus trop intelligents ?

Fin 2020, Kimberly McCabe, cadre dans une société de conseil de la région de Washington, DC, est passée d’un iPhone 10 à un iPhone 12 Pro. La quarantaine avait incité McCabe, mère de deux enfants, à investir plus d’efforts dans la documentation de la vie de famille. Elle pensait que le nouveau smartphone, sorti le mois précédent et doté d’un appareil photo amélioré, améliorerait la qualité de ses clichés amateurs. Mais le 12 Pro a été une déception, m’a-t-elle dit récemment, ajoutant: “Je me sens un peu dupe.” Chaque image semble sortir beaucoup trop lumineuse, avec des couleurs chaudes désaturées en gris et jaunes. Certaines des photos que McCabe prend de sa fille à l’entraînement de gymnastique s’avèrent étrangement floues. Dans une image qu’elle m’a montrée, les pieds levés de la fille se frottent comme une aquarelle désordonnée. McCabe a déclaré que, lorsqu’elle utilise son ancien appareil photo reflex numérique à objectif unique (DSLR), “ce que je vois dans la vraie vie est ce que je vois sur l’appareil photo et sur la photo”. Le nouvel iPhone promet une photographie de « niveau supérieur » avec la facilité d’un bouton-poussoir. Mais les résultats semblent étranges et étranges. “Rendez-le moins intelligent – je suis sérieux”, a-t-elle déclaré. Dernièrement, elle a été amenée à porter un Pixel, de la gamme de smartphones de Google, dans le seul but de prendre des photos.

Apple aurait vendu plus de cent millions d’unités d’iPhone 12 Pro et plus de quarante millions d’iPhone 13 Pro depuis ses débuts, en septembre de l’année dernière. Les deux modèles sont parmi les appareils photo grand public les plus populaires jamais fabriqués, et également parmi les plus puissants. Les lentilles de nos smartphones sont de minuscules ouvertures, pas plus grandes qu’un bouton de chemise. Jusqu’à récemment, ils avaient peu de chances d’imiter la fonction des objectifs d’appareils photo professionnels pleine grandeur. Les caméras de téléphone atteignent les normes d’un point-and-shoot numérique de base; beaucoup d’entre nous n’attendaient rien de plus. Cependant, avec les derniers modèles d’iPhone, Apple tente de faire en sorte que ses minuscules appareils photo de téléphone fonctionnent autant que possible comme les appareils photo traditionnels et de faire en sorte que chaque photo qu’ils prennent ressemble au travail d’un professionnel chevronné. (D’où les noms 12 et 13 “Pro”, qui se distinguent des modèles précédents d’iPhone 12 et 13 principalement par leurs appareils photo plus sophistiqués.) L’iPhone 13 Pro prend des images de douze mégapixels, comprend trois objectifs distincts et utilise l’apprentissage automatique pour automatiquement régler l’éclairage et la mise au point. Pourtant, pour certains utilisateurs, toutes ces fonctionnalités d’optimisation ont eu un effet indésirable. Halogénure, un développeur d’applications pour appareils photo, a récemment publié un examen minutieux du 13 Pro qui a noté des problèmes visuels causés par la photographie intelligente de l’appareil, y compris l’effacement des câbles de pont dans une photo de paysage. “Son ensemble complexe et imbriqué de composants logiciels ‘intelligents’ ne s’emboîte pas parfaitement”, indique le rapport.

En janvier, j’ai échangé mon iPhone 7 contre un iPhone 12 Pro et j’ai été consterné par les performances de l’appareil photo. Sur le 7, la légère rugosité des images que j’ai prises semblait être un produit logique des capacités limitées de l’appareil photo. Je ne me souciais pas des imperfections comme le “bruit numérique” qui se produisait lorsqu’un sujet était sous-éclairé ou trop éloigné, et j’aimais le fait que toute retouche de photos ne dépende que de moi. Sur le 12 Pro, en revanche, les manipulations numériques sont agressives et non sollicitées. On s’attend à ce que le visage d’une personne devant une fenêtre éclairée par le soleil apparaisse obscurci, par exemple, car un objectif d’appareil photo traditionnel, comme l’œil humain, ne peut laisser entrer la lumière qu’à travers une seule taille d’ouverture à un instant donné. Mais sur mon iPhone 12 Pro, même un visage rétro-éclairé apparaît étrangement illuminé. L’édition pourrait faire une photo théoriquement améliorée – c’est agréable de voir des visages – mais l’effet est effrayant. Lorsque j’appuie sur le déclencheur pour prendre une photo, l’image dans le cadre apparaît souvent un instant comme à mon œil nu. Ensuite, il se clarifie et s’éclaircit en quelque chose de méconnaissable, et il n’y a aucun moyen d’inverser le processus. David Fitt, photographe professionnel basé à Paris, est également passé d’un iPhone 7 à un 12 Pro, en 2020, et il préfère toujours l’appareil photo moins puissant du 7. Sur le 12 Pro, “je le tire et il a l’air surtraité”, a-t-il déclaré. “Ils ramènent des détails dans les hautes lumières et dans les ombres qui sont souvent plus que ce que vous voyez dans la vraie vie. Ça a l’air trop réel.

Pour une grande partie de la population, “smartphone” est devenu synonyme d'”appareil photo”, mais la vérité est que les iPhones ne sont plus des appareils photo au sens traditionnel. Au lieu de cela, ce sont des appareils à l’avant-garde de la «photographie informatique», un terme qui décrit l’imagerie formée à partir de données numériques et de traitement autant qu’à partir d’informations optiques. Chaque image enregistrée par l’objectif est modifiée pour la rapprocher d’un idéal préprogrammé. Gregory Gentert, un ami photographe d’art à Brooklyn, m’a dit : « J’ai essayé de photographier sur l’iPhone lorsque la lumière devient bleutée en fin de journée, mais l’iPhone essaiera de corriger ce genre de chose. .” Un violet sombre est édité, et dans le processus effacé, car la teinte est évaluée comme indésirable, comme un défaut au lieu d’une caractéristique. L’appareil “voit les choses que j’essaie de photographier comme un problème à résoudre”, a-t-il ajouté. Le traitement de l’image élimine également le bruit numérique, le lissant dans un léger flou, ce qui pourrait être la raison de la bavure que McCabe voit sur les photos de la gymnastique de sa fille. Le “correctif” finit par créer une distorsion plus perceptible que toute erreur perçue dans l’original.

Plus tôt ce mois-ci, l’équipe iPhone d’Apple a accepté de me fournir des informations, en arrière-plan, sur les dernières mises à niveau de l’appareil photo. Un membre du personnel a expliqué que, lorsqu’un utilisateur prend une photo avec les derniers iPhones, l’appareil photo crée jusqu’à neuf images avec différents niveaux d’exposition. Ensuite, une fonction “Deep Fusion”, qui existe sous une forme ou une autre depuis 2019, fusionne les parties les plus claires de toutes ces images ensemble, pixel par pixel, formant une seule image composite. Ce processus est une version extrême de la plage dynamique élevée, ou HDR, une technique qui nécessitait auparavant un logiciel averti. (En tant qu’étudiant, j’aurais du mal à reproduire le HDR sur les photos de mon appareil photo traditionnel en utilisant Photoshop pour superposer divers cadres, puis découper leurs parties souhaitables.) L’appareil photo de l’iPhone analyse également chaque image sémantiquement, à l’aide d’un graphique- unité de traitement, qui sélectionne des éléments spécifiques d’un cadre – visages, paysages, ciels – et expose chacun différemment. Sur les 12 Pro et 13 Pro, j’ai constaté que le traitement d’image fait ressortir les nuages ​​et les traînées avec plus de clarté que l’œil humain ne peut en percevoir, créant des cieux qui ressemblent aux horizons sursaturés d’un film d’animation ou d’un jeu vidéo. Andy Adams, un blogueur photo de longue date, m’a dit : “Le HDR est une technique qui, comme le sel, doit être appliquée très judicieusement”. Maintenant, chaque photo que nous prenons sur nos iPhones a été généreusement salée, que ce soit nécessaire ou non.

Au XXe siècle, la photographie a permis la reproduction massive d’œuvres d’art, élargissant leur accessibilité tout en dégradant leur impact individuel. Tout comme les œuvres d’art ont des « auras » physiques, comme l’a décrit Walter Benjamin, les appareils photo traditionnels produisent des images aux qualités distinctives. Pensez à la photo immaculée de l’appareil photo Leica prise avec un objectif à longueur fixe ou à l’instantané instantané Polaroid avec son exposition inégale. Les images réalisées sur ces appareils sont indissociables de la mécanique des appareils eux-mêmes. D’une certaine manière, l’iPhone a rendu l’appareil photo lui-même reproductible à l’infini. Les outils numériques de l’appareil peuvent imiter n’importe quel appareil photo, objectif ou film à tout moment, sans l’habileté manuelle qui était nécessaire dans le passé, un peu comme la façon dont les premières photographies reproduisaient les coups de pinceau des peintres. Les images de l’iPhone qui en résultent ont un effet déstabilisant sur le statut de l’appareil photo et du photographe, créant une copie superficielle de la technique photographique qui détruit l’impact de l’original. La photo iPhone moyenne tend vers l’apparence de professionnalisme et d’imitation artistique sans jamais y arriver. Nous sommes tous des photographes professionnels maintenant, d’une simple pression du doigt, mais cela ne signifie pas que nos photos sont bonnes.

Après mes conversations avec le membre de l’équipe iPhone, Apple m’a prêté un 13 Pro, qui comprend une nouvelle fonctionnalité de styles photographiques destinée à permettre aux utilisateurs de participer au processus de photographie informatique. Alors que les filtres et autres outils d’édition familiers fonctionnent sur une image entière à la fois, après sa prise, Styles intègre les ajustements dans les étapes d’analyse sémantique et de sélection entre les images. Le processus est un peu comme ajuster les paramètres d’un appareil photo manuel ; cela change la façon dont la photo sera prise lorsque le déclencheur est enfoncé. Un cadran de tonalité combine la luminosité, le contraste, la saturation et d’autres facteurs, et un cadran de chaleur modifie la température de couleur des photos. Les effets de ces ajustements sont plus subtils que les anciens filtres de post-traitement de l’iPhone, mais les qualités fondamentales des photographies iPhone de nouvelle génération demeurent. Ils sont froidement nets et vaguement inhumains, pris dans l’étrange vallée où l’expression créative rencontre l’apprentissage automatique.

L’une des caractéristiques les plus spectaculaires de la photographie informatique d’Apple est le mode Portrait, qui imite la façon dont un objectif à grande ouverture capture un sujet au premier plan avec une mise au point nette tout en effaçant ce qui se cache derrière. Disponible sur les modèles d’iPhone depuis 2016, cet effet n’est pas obtenu par l’objectif lui-même mais par des filtres algorithmiques qui déterminent où se trouve le sujet et appliquent un flou artificiel à l’arrière-plan. Bokeh, comme on appelle cette qualité vaporeuse, était autrefois le domaine des magazines sur papier glacé et des séances photo de mode. Désormais, il s’agit simplement d’un autre choix esthétique ouvert à tout utilisateur, et la simulation numérique est souvent peu convaincante. Prenez une photo en mode Portrait et vous verrez où l’algorithme est imparfait. Peut-être que le contour des cheveux d’un sujet sera flou, car le système ne peut pas tout à fait évaluer ses bordures, ou une figure secondaire sera enregistrée comme faisant partie de l’arrière-plan et complètement floue. Cette version approchée de la machine du bokeh signifie l’amateurisme plutôt que l’artisanat. Les amateurs qui n’aiment pas ces astuces technologiques pourraient rechercher des appareils photo numériques plus anciens ou retourner au cinéma. Mais les nouveaux appareils photo iPhone, plus que la plupart des utilisateurs ne le réalisent, forgent un modèle qui remodèle la nature de la création d’images ainsi que nos attentes quant à ce que devrait être une photographie. David Fitt, le photographe basé à Paris, a déclaré: «Cela établit une norme de ce à quoi ressemble une image normale. J’espère qu’à l’avenir, je n’aurai plus de clientes qui me demanderont ce type de look.

Leave a Comment