Le capteur lidar de l’iPhone 12 Pro – le cercle noir en bas à droite de la caméra – ouvre des possibilités de RA.

Pomme

Apple est optimiste sur le lidar, une technologie toute nouvelle dans la famille iPhone 12, en particulier pour l’iPhone 12 Pro et l’iPhone 12 Pro Max. (L’iPhone 12 Pro est en vente maintenant, avec l’iPhone 12 Pro Max avec le Pro Max suivant dans quelques semaines.)

Regardez de près l’un des nouveaux modèles d’iPhone 12 Pro, ou le iPad Pro le plus récent, et vous verrez un petit point noir près des objectifs de l’appareil photo, à peu près de la même taille que le flash. C’est le capteur lidar, et c’est un nouveau type de détection de profondeur qui pourrait faire la différence de plusieurs manières intéressantes.

Si Apple réussit, le lidar est un terme que vous commencerez beaucoup à entendre maintenant, alors décomposons ce que nous savons, à quoi Apple va l’utiliser et où la technologie pourrait aller ensuite.

Que signifie lidar?

Lidar est synonyme de détection de lumière et de télémétrie, et existe depuis un certain temps. Il utilise des lasers pour déclencher des objets et revenir à la source du laser, mesurant la distance en chronométrant le voyage, ou le vol, de l’impulsion lumineuse.

Comment le lidar agit-il pour détecter la profondeur?

Lidar est un type de caméra à temps de vol. Certains autres smartphones mesurent la profondeur avec une seule impulsion lumineuse, alors qu’un smartphone doté de ce type de technologie lidar envoie des ondes lumineuses dans un jet de points infrarouges et peut mesurer chacun avec son capteur, créant un champ de points qui cartographient les distances. et peut “mailler” les dimensions d’un espace et les objets qu’il contient. Les impulsions lumineuses sont invisibles à l’œil humain, mais vous pouvez les voir avec une caméra de vision nocturne.

ipad-pro-ar

L’iPad Pro sorti au printemps dispose également de lidar.

Scott Stein / CNET

N’est-ce pas comme Face ID sur l’iPhone?

C’est vrai, mais avec une plus longue portée. L’idée est la même: celle d’Apple Caméra TrueDepth compatible avec Face ID lance également une série de lasers infrarouges, mais ne peut fonctionner que jusqu’à quelques mètres de distance. Les capteurs lidar arrière de l’iPad Pro et de l’iPhone 12 Pro fonctionnent à une portée allant jusqu’à 5 mètres.

Lidar est déjà dans beaucoup d’autres technologies

Lidar est une technologie qui pousse partout. Il est utilisé pour voitures autonomes, ou conduite assistée. Il est utilisé pour robotique et drones. Casques de réalité augmentée comme le HoloLens 2 ont une technologie similaire, cartographiant les espaces de la pièce avant d’y superposer des objets virtuels 3D. Mais il a aussi une assez longue histoire.

Ancien accessoire Xbox à détection de profondeur de Microsoft, le Kinect, était également une caméra à balayage infrarouge. En fait, PrimeSense, la société qui a contribué à la création de la technologie Kinect, a été racheté par Apple en 2013. Maintenant, nous avons les capteurs de caméra TrueDepth à balayage du visage d’Apple et de lidar arrière.

XBox_One_35657846_03.jpg

Vous vous souvenez du Kinect?

Sarah Tew / CNET

La caméra iPhone 12 Pro pourrait mieux fonctionner avec lidar

Les caméras à temps de vol sur les smartphones ont tendance à être utilisées pour améliorer la précision et la vitesse de mise au point, et l’iPhone 12 Pro fera de même. Apple promet une meilleure mise au point en basse lumière, jusqu’à 6 fois plus rapide dans des conditions de faible luminosité. La détection de profondeur lidar sera également utilisée pour améliorer les effets du mode portrait nocturne.

Une meilleure mise au point est un plus, et il est également possible que l’iPhone 12 Pro ajoute davantage de données photo 3D aux images. Bien que cet élément n’ait pas encore été présenté, la caméra TrueDepth frontale à détection de profondeur d’Apple a été utilisée de la même manière avec les applications.

lentille-snapchat-alimentée par lidar.png

Snapchat active déjà les objectifs AR en utilisant le lidar de l’iPhone 12 Pro.

Snapchat

Cela améliorera également considérablement la réalité augmentée

Lidar permettra à l’iPhone 12 Pro de démarrer des applications AR beaucoup plus rapidement et de créer une carte rapide d’une pièce pour ajouter plus de détails. Beaucoup de Mises à jour AR d’Apple dans iOS 14 profitent du lidar pour cacher des objets virtuels derrière des objets réels (appelés occlusion) et placer des objets virtuels dans des mappages de pièces plus compliqués, comme sur une table ou une chaise.

Mais il y a un potentiel supplémentaire au-delà de cela, avec une queue plus longue. De nombreuses entreprises rêvent de casques qui mêleront objets virtuels et réels: lunettes AR, en cours de travail sur Facebook, Qualcomm, Snapchat, Microsoft, Saut magique et très probablement Apple et d’autres, s’appuieront sur des cartes 3D avancées du monde pour superposer des objets virtuels.

Ces cartes 3D sont maintenant construites avec des scanners et des équipements spéciaux, presque comme la version à balayage du monde de ces voitures Google Maps. Mais il est possible que les propres appareils des gens puissent éventuellement aider à collecter ces informations ou ajouter des données supplémentaires à la volée. Encore une fois, les casques AR comme Magic Leap et HoloLens pré-analysent déjà votre environnement avant d’y superposer des éléments, et la technologie AR équipée du lidar d’Apple fonctionne de la même manière. En ce sens, l’iPhone 12 Pro et l’iPad Pro sont comme des casques AR sans la partie casque … et pourraient ouvrir la voie à Apple pour éventuellement fabriquer ses propres lunettes.

toile-occipitale-ipad-pro-lidar.png

Un scan de pièce 3D depuis l’application Canvas d’Occipital, activé par le lidar à détection de profondeur sur l’iPad Pro. Attendez-vous à la même chose pour l’iPhone 12 Pro, et peut-être plus.

Occipital

La numérisation 3D pourrait être l’application qui tue

Le lidar peut être utilisé pour mailler des objets et des pièces 3D et superposer des images photo, une technique appelée photogrammétrie. Cela pourrait être la prochaine vague de technologie de capture pour des utilisations pratiques comme amélioration de l’habitat, ou même les réseaux sociaux et journalisme. La possibilité de capturer des données 3D et de partager ces informations avec d’autres pourrait faire de ces téléphones et tablettes équipés de lidar des outils de capture de contenu 3D. Lidar pourrait également être utilisé sans l’élément de caméra pour acquérir des mesures d’objets et d’espaces.

google-tango-lenovo-1905-001.jpg

Vous vous souvenez de Google Tango? Il avait aussi une détection de profondeur.

Josh Miller / CNET

Apple n’est pas le premier à explorer une technologie comme celle-ci sur un téléphone

Google avait cette même idée en tête lorsque Projet Tango – une des premières plates-formes de RA qui était seulement sur deux téléphones — a été créé. Le réseau de caméras avancé était également doté de capteurs infrarouges et pouvait cartographier les pièces, créer des scans 3D et des cartes de profondeur pour la RA et pour mesurer les espaces intérieurs. Les téléphones équipés de Tango de Google ont été de courte durée, remplacés par des algorithmes de vision par ordinateur qui ont fait une détection de profondeur estimée sur des caméras sans avoir besoin du même matériel. Mais l’iPhone 12 Pro d’Apple ressemble à un successeur beaucoup plus avancé.


Lecture en cours:
Regarde ça:

iPhone 12, iPhone 12 Mini, Pro et Pro Max expliqués


9:16

READ  Les produits Thunderbolt 4 résolvent un gros problème USB-C