Capteur technologie, l’œil de notre smartphone Accessoires smartphones chinois Smartphones chinois by ChinaGeek - 1 décembre, 20152 Caméra, appareil optique, Capteur, ISP ces termes barbares n’auront plus aucun secret pour vous Apres les articles sur les processeurs je me lance dans une description assez complexe de nos capteurs optiques qui orne nos smartphones. Ces dernieres semaines et depuis le début des tests videos et autres articles nous avons démanteler mentalement nos smartphones et nous nous sommes souvent approché de leurs parties les plus intimes. Le chemin pour le SoC et les autres composants présents sur la carte mère, toutefois, est encore long et passe par l’analyse des « sens » de nos terminaux c’est à dire de ces composants qui permettent a chaque dispositif de détecter et d’enregistrer les données sur l’utilisateur et le milieu environnant. Nous allons nous concentrer sur la vue, le sens plus complexe et puissant à disposition de l’être humain. Nous allons parler ensuite des technologies sous-jacentes du fonctionnement de l’appareil photo, l’œil numérique de nos smartphones qui nous permette de conserver une image simple de ce qui est autour de nous. imx214 Appareil optique Bien souvent les smartphones présent sur le marché sont annoncé avec un capteur à la résolution élevée ou d’un qualité particulière, mais quasiment a chaque fois ils omettent de dédier quelques paroles sur l’appareil optique qui alimente un tel capteur. Si nous voulions faire une comparaison avec l’œil humain, cette approche équivaudrais à donner beaucoup d’importance à la rétine au lieu du reste du globe oculaire, car ils savent que les personnes portant des lunettes, est souvent à cause d’une vision imparfaite. Actuellement, il existe plusieurs systèmes de lentilles brevetés pour un usage mobile, mais tous ces appareils optiques ont en commun l’utilisation de lentilles asphériques (presque toujours en plastique) et sont classés en fonction de leurs caractéristiques optiques. Pour autant que puisse etre compliqué le fonctionnement du dispositif, par exemple, il sera toujours possible de définir la distance focale, à savoir la distance entre le centre optique du système de lentilles et le plan dans lequel l’image est mise au point. distance focale Le fait qu’il y ait cette longueur, cependant, ne doit pas nous conduire à croire que vous pourrez créer un objectif qui est toujours focalisé. La longueur focale, en fait, est calculé par rapport à un objet à l’infini, et ne défini rien à propos de la position de mise au point d’un objet à proximité. Cet inconvénient est surmonté grâce à l’utilisation d’un VCM (moteur à bobine mobile), qui est, un minuscule électroaimant capable de déplacer une ou plusieurs lentilles du système pour toujours garder la mise au point de l’image sur le capteur. La longueur focale, cependant, est particulièrement importante car elle permet de déterminer l’angle de vue, qui est la mesure de la scène, vous pouvez prendre des photos avec l’appareil photo. Une unité optique dans lequel la diagonale du capteur est comparable à la distance focale, en particulier, on dira normale et affiche un angle de vue semblable à celle de l’œil humain. Avec la diminution focale sur la diagonale, cependant, vous aurez un domaine en pleine expansion (grand angle), tandis que dans le cas contraire, vous obtiendrez des angles très serrés (téléobjectif). focal-length il est intéressant de noter une autre caractéristique optique qu’est l’ouverture relative, à savoir le rapport entre la distance focale et le diamètre du trou qui permet le passage de la lumière. Cette quantité, est indiqué graphiquement comme «f / nombre » (nombres inférieurs impliquant ouvertures supérieures) est en fait lié à la quantité de lumière qui peut atteindre le capteur: en raison de la nature circulaire du trou, le flux lumineux diminuera d’un quart pour chaque dédoublement du nombre f, et par exemple une ouverture de f/2 laissera passer le double de lumière qu’une ouverture de f/2,8. ouverture diagramme De sorte que le capteur peut enregistrer une bonne image, par conséquent, le système de lentilles doit être conçu pour assurer une bonne mise au point et d’avoir une ouverture élevée et une distance focale appropriée. Ils est souvent présents aussi des filtres qui limitent le passage de la gamme visible, tandis qu’elle est presque toujours absent dans le diaphragme du mobile. Ce qui est absolument non désiré, enfin, ce sont les aberrations optiques qui réduirait considérablement la qualité des photos. Le capteur Imaginez que vous voulez prendre une photo avec votre smartphone, pour vous il ne s’agit que d’appuyez simplement sur un bouton, mais en réalité vous utilisez un nombre très élevé de principes physiques pour obtenir le résultat souhaité. Exploitant le fait que la lumière semble se déplacer plus lentement à l’intérieur des lentilles (un concept exprimé numériquement par l’indice de réfraction), par exemple, vous dévierez plus de photons pour mettre l’image au point sur une surface, et encore ce ne sera que le début de l’oeuvre! Votre smartphone, en fait, ne peut pas gérer directement les informations véhiculées par les photons, mais doit d’abord les transformer en un signal électrique et, enfin, en un ensemble de nombres binaires qu’il peut facilement comprendre et mémoriser. La partie du module qui est en charge de la conversion des photons en signaux électriques est le capteur, tandis que le traitement réel de l’image a lieu dans un circuit généralement intégré dans le SoC, le processeur de signaux d’image (ISP). Photography_cheat_sheet_digital_processing Actuellement, le monde des capteurs est domié par la technologie CMOS (Complementary Metal-Oxide Semiconductor) et le CCD (Charge Coupled Device), mais il est presque entièrement absent dans les mobiles en raison de leur forte consommation de plus de leur coût de production élevé. Les deux technologies, en tout cas, sont basés sur l’utilisation d’une matrice d’éléments photosensibles, le dit photosite. Dans le cas de la technologie CCD ces cellules sont des condensateurs microscopiques qui se charge lorsqu’ils sont exposés à la lumière, tandis que dans les CMOS se trouve des photodiodes que, si frappé par un photon, produisent une différence de potentiel. A_micrograph_of_the_corner_of_the_photosensor_array_of_a_‘webcam Dans les deux cas, cependant, ces éléments sont sensibles à la totalité du spectre visible et, par conséquent, ne sont pas en mesure de donner des informations en natif sur la couleur de la lumière qui les a activés. Pour résoudre ce problème, la majorité des capteurs commerciaux actuels utilisent un filtre Bayer, qui sont, de très petites lentilles de couleur, pour faire que chaque photosite soit rendu à une seule des couleurs fondamentales (Color Filter tableau). Grâce à l’interpolation de couleur, alors il sera possible de calculer la couleur correspondant aux pixels individuels. Dès le début de la photographie numérique, a été propagé l’habitude de confondre le concept de photosite, élément physique qui n’est souvent pas en mesure de retourner seul toutes les informations sur la lumière incidente, à ce pixel. Cette confusion a été générée par le fait que tous les fabricants déclarent le nombre de photosites exprimer (d’une manière non entièrement légale) en mégapixels. raw Un capteur de 13 mégapixels comme le Sony IMX214, alors, sera en fait composé d’une matrice de 4224 × 3200 photosites dont seulement un quart sera sensible au bleu, une autre quart au rouge et le reste au vert. Il y a un cas particulier avec les capteurs Foveon, qui avec chaque photosite est capable d’enregistrer toutes les composantes de couleur et, par conséquent, identique à un pixel. Nous revenons maintenant à notre capteur et voyons comment, en fonction de la technologie, de l’emplacement des signaux électriques générés par la lumière est différente. Dans le cas d’un CCD, en particulier, à l’aide de champs électriques pour déplacer la charge de la capacité unique vers l’un adjacent, de sorte que les paquets de charges soit déplacer vers l’amplificateur et l’ADC (convertisseur analogique-numérique) externe qui les transformes en un signal binaire. ccd_cmos Dans le cas de capteurs CMOS, cependant, tous les photosites sont indépendants l’un des autres et l ‘ADC est intégrée directement sur la puce. Chaque élément sensible, alors, dispose de sont propre circuit d’amplification dédié, qui peut être placé sous (backside illumination, BSI) ou sur (frontside illumination, FSI) la photodiode. Pendant longtemps, les capteurs FSI étaient les plus disponibles et largement utilisés grâce à des coûts de production plus faibles, et que récemment, la propagation des systèmes BSI est devenu vraiment pertinent. Les avantages théoriques de cette solution sont évidents: la distance entre la lentille de couleur de la CFA et la photodiode est plus petite que ne le permet le système FSI, et donc a conditions égales externes viendra un grand flux lumineux sur la surface sensible. sony_cmos_diagram Cet avantage est particulièrement évident dans le cas de faible éclairage ou partie éclairé, est décisive pour les caméras avec de petites ouvertures tels que ceux qui sont généralement hébergés par nos smartphones. Ceci explique le succès croissant de cette technologie qui, après avoir été adopté par tous les principaux fabricants de capteurs photo pour le monde mobile, grâce à l’amélioration de la production et la réduction des coûts gagne lentement du terrain parmi les caméras autonomes. Processeur de signaux d’imagerie, le cerveau de l’appareil photo Nous avons vu, en parlant du capteur, comment celui ci en réalité donne a notre smartphone seulement un ensemble de données brutes (RAW) sur la mosaïque de couleurs créées par le CFA, les données sont loin de représenter directement les objets que nous avons introduites dans la lentille. Avant de pouvoir conserver la photo par conséquent, il est nécessaire de passer par une étape supplémentaire dans le processeur de signal d’imagerie (ISP), le circuit qui traite avec le dématriçage, du choix des paramètres de prise de vue et de corriger les aberrations provoquées par des imperfections de lentilles. smartphone-camera-system Le dématriçage, en particulier, consiste a estimer les composantes de couleurs manquantes de photosites individuels faisant la moyenne des valeurs des éléments de détection les plus près. Par exemple, supposons que vous avez un photosite avec filtre vert, a celui ci il va manquer les composantes rouge et bleue, respectivement, qui sera calculée en utilisant les photosites avec filtre rouge et bleu les plus près. L’ensemble des trois composantes de couleur (mesurées et deux approximatives) sont ensuite conditionnés en pixels, qui, finalement, se rapproche de la couleur de la lumière qui a vraiment touché que photosite. L’ISP, à ce stade, interprète l’image reçue du module de caméra et corrige les paramètres pour améliorer sa qualité automatiquement. La vitesse d’obturation et la sensibilité du capteur, par exemple, seront ajustées pour obtenir une bonne exposition, donnant la priorité à la première ou la deuxième fonction du type de photo que vous définissez. Pour les sujets en mouvement, donc ils préféreront des expositions de courtes durées, tandis que pour les images fixes avec pieds de support l’accent sera mis sur une sensibilité plus faible. Exposition Rappelons également que augmenter la sensibilité des capteurs photo numérique équivaux à amplifier l’ensemble du signal sortant de la photodiode, le bruit inclus. Cette dernière composante n’est pas souhaitable bien sûr, rendant beaucoup plus difficile le travail de l’ISP dans des conditions de faible éclairage et réduit la qualité des photos. Un autre paramètre clé, alors, et la balance des couleurs et le choix du point de blanc. Ces paramètres sont généralement choisis par un algorithme propriétaire (dans ce domaine, ainsi que pour le dématriçage, les fabricants sont très jaloux de leurs propres technologies) qui estime la couleur de la lumière incidente et, par conséquent, l’ajustement des paramètres RVB des pixels pour produire une image plus naturelle et plus vive (selon le goût du fabricant et les indications de l’utilisateur). color-balance-sample L’autre tâche essentielle que doivent gérer tous les ISP, à ce stade, est la mise au point automatique, à savoir le système de rétroaction qui permet le plan de mise au point de coïncider toujours avec le capteur. Le système autofocus actuellement le plus largement utilisé dans les mobiles est celui de la détection de contraste, mais dernièrement, ils ont également répandu un systèmes à la détection de phase (PDAF). Le premier, en particulier, est basé sur l’idée que l’image mise au point aura inévitablement un contraste plus élevé par rapport à une image mal focalisée. L’ISP, donc, déplacera le système optique de l’appareil intégré pour maximiser le contraste dans une région du capteur, qui est généralement directement sélectionnable par l’utilisateur. Il s’agit donc d’un système «a tentatives », ce qui est pas particulièrement rapide, mais il est reconnu pour son excellente qualité de mise au point. Phase-Detection-Autofocus Le PDAF, lui, consiste à diviser optiquement une partie de la lumière entrante en deux images identiques et en mesure le déphasage. Cela permet a l’ISP de calculer la direction pour déplacer le système optique afin de s’approché du plan de mise au point à concentrer sur le capteur et, par conséquent, vous permet de prendre de superbes photos en peu de temps. Les ISP actuelles, enfin, traite entre autres aussi la compression des images au format JPEG, le logiciel de suppression de bruit, la stabilisation électronique de l’image (ce qui est souvent tout simplement le fait de réduire le temps d’exposition), l’encodage de la vidéo , le système HDR, l’application de filtres (récemment devenu tellement à la mode) et le visage et détection de sourire. Waooooow je suis arrivé à la fin j’espère que vous aussi aurez pris autant de plaisir a le lire que moi à l’écrire.Suggestions d'articlesLenteen X1 Pro 4.7 HD MT6582 3G 900MHz OTGPromos TinyDeal Mars: Smartphones et tablettesZTE Nubia My PRAGUE Elite 4GFAEA F2 International 5 pouces 1080p MT6589T Leagoo prêt à rivaliser Xiaomi et son ecosystem?