
Georgian Bay - sommerlandskab
Ændring af, hvordan fotografier tages
I de senere år har en række producenter produceret kameraer, der er i stand til at producere billeder i højere opløsning gennem noget, der kaldes Sensor-Shift Technology. Denne teknologi er blevet mulig med fremkomsten af IBIS (body image stabilization). Kameradesignere har brugt IBIS som en måde at få utrolige stigninger i billedopløsningen eller til at forbedre farveinformation for de billeder, der er taget.
Der er en række navne til denne teknologi, herunder High-Resolution Mode, Pixel Shifting Resolution System, Pixel Shift Multi Shooting Mode eller de mere generiske navne på pixel-shift / sensor-shift, men i sidste ende er koncepterne bag denne teknologi alle det samme. Flere billeder af den samme visning tages på en sådan måde, at billederne stables og blandes for at skabe et enkelt, normalt stort, højopløsningsbillede.
Der er styrker og svagheder ved denne nye teknologi, og forståelse af, hvordan det fungerer, kan hjælpe dig med at lave bedre billeder selv, hvis du har et kamera, der er i stand til at gøre dette.
BEMÆRK: Da websteder bruger billeder med lavere opløsning, er billederne, der bruges i denne artikel, blevet nedskåret og ændret for at simulere forskellene mellem billederne i høj opløsning og standardoutputtet fra kameraerne. Når man ser på billederne fuldt ud, ser billederne ens ud, men når man kommer nærmere detaljerne i billederne, det er når man begynder at se forskellene.

Gerbera tusindfryd indendørs, regelmæssig opløsning (20 MP) Olympus OMD EM 1 Mark II

Gerbera tusindfryd indendørs, høj opløsning (50MP) Olympus OMD EM 1 Mark II
Mange tilgange til sensorskiftbilleder
Billedoptagelse af sensorskift er blevet omdannet fra dyre specialkameraer til at blive en stadig mere tilgængelig funktion på nyere, opløsningsorienterede kameraer. I dag er der foruden Hasselblads monster H6D-400c (400 Megapixel-billeder) tilbud fra Olympus, Pentax, Sony og Panasonic.
Disse versioner bruger generelt den samme konceptuelle tilgang, men til meget mere tilgængelige priser.

Sensor-Shift-bevægelse
Hvem bruger sensorskift?
Uanset producenten forbliver den grundlæggende handling ved sensor-shift billedoptagelse den samme. Tag flere billeder, men flyt kameraets sensor lidt for hvert billede for at optage flere billeddata og sæt derefter billedet sammen.
Ved at flytte sensoren rundt forbedres billedfarvedataene, så flere detaljer kan løses ved at overvinde de iboende problemer med farvespecifikke fotosites. Ignorerer Hasselblad inkluderer de systemer, der bruger denne teknologi kameraer som Olympus OM-D E-M1 Mark II (Micro Four Thirds), Pentax K-1 Mark II DSLR, Sony a7R III og Panasonic Lumix DC-G9 (Micro Fire tredjedele), selvom der er andre fra de samme producenter.
Tre af disse linjer er spejlløse kameraer, hvor Pentax er en DSLR-afgrødesensor. Det er interessant at bemærke, at Panasonic / Olympus-kameraerne tager en tilgang, og Pentax / Sony tager en anden tilgang til de samme koncepter.
Olympus / Panasonic-systemerne bruger en tilgang, der fremstiller meget store billeder i høj opløsning, mens Pentax- og Sony-systemerne bruger sensorskift til at forbedre farveinformationen for billeder i samme størrelse. Både Pentax- og Sony-systemerne tillader også adskillelse af de individuelle sensorforskudte billeder, mens Olympus og Panasonic blander de stablede billeder til et enkelt fotografi.

Olympus OMD EM5 Mark II har sensor-shift-teknologi.
Hvordan fungerer sensorteknologi?
For at forstå, hvordan sensor-shift-teknologi fungerer, skal du også forstå, hvordan en sensor generelt fungerer i meget lille skala. I de gode gamle dage med filmfotografering brugte kameraer lysfølsom film til at optage billeder. Digitale kameraer bruger en meget anden tilgang til optagelse af lys.
Digitale kameraer bruger lysfølsomme fotodioder til at optage det lys, der rammer sensoren. I de fleste digitale kameraer har hver fotodiode et specifikt farvefilter (rød, grøn eller blå), der danner en fotosite. Disse fotosites er arrangeret, så lyset blandes for at se farven fra billedet, der kommer ind på sensoren.
De røde, grønne og blå fotosites på en sensor er generelt arrangeret i et specifikt mønster kendt som et Bayer-array (aka Bayer-matrix, filter). Der er også andre konfigurationer som Fuji X-Trans-sensoren (bruges på flere af deres kameramodeller) eller Sigma, der bruger en Foveon-sensor.
Med et Bayer-arrangement er der dobbelt så mange grønne fotosites som rød eller blå, fordi menneskets vision er mest tilpasset til at løse detaljer i grønt. Dette arrangement fungerer generelt godt, men hvis du tænker over det, på et billede, oprettes en farvepixel ved at blande disse fotosites sammen.
Sensoren ved ikke, hvor meget rød der er på en grøn sensorplacering eller en blå sensorplacering, så interpolering er påkrævet. Dette kan skabe nogle artefakter på fotografier, hvis du ser meget nøje og har en tendens til at betyde, at RAW-billeder har et så blødt fokus. Alle RAW-billeder har brug for en vis skærpning i efterbehandlingen (det grønne, det røde og det blå for en pixel blandes sammen).

Bayer-mønster af fotosites
Statiske sensorer
I et almindeligt kamera uden IBIS registrerer hver fotosite kun lyset fra en farve på det ene sted, så de data, det registrerer, er teknisk ufuldstændige. Det er som en spand, der kun samler lys fra en bestemt farve. En klynge af lyse spande i Bayer-mønsteret bruges til at skabe en enkelt pixel i det digitale billede, men inden for den pixel er der to grønne spande, en blå og en rød.
For at smelte billedet sammen og sætte en enkelt farve i den ene pixel, løses signalerne fra klyngen af fotodioder sammen. De indsamlede data interpoleres via en afmosaiseringsalgoritme enten i kameraet (jpeg.webp) eller på en computer (fra et RAW-billede), en proces, der tildeler værdier for alle tre farver for hver fotosite baseret på de kollektive værdier, der er registreret af nabo-fotosites .
De resulterende farver udsendes derefter som et pixelgitter, og der oprettes et digitalt fotografi. Dette er dels grunden til, at RAW-billeder har et lidt blødere fokus og skal skærpes i postflowet.
Bevægelige sensorer
IBIS betyder, at sensorerne nu bevæger sig lige så lidt for at justere til subtile bevægelser af et kamera for at holde billedet stabilt. Nogle producenter hævder, at deres systemer er i stand til at stabilisere sensoren og / eller linsekombinationen svarende til 6,5 stop.

Ved at flytte sensoren kan alle farvefotosites registrere data for hvert sted på sensoren.
Denne stabilisering opnås ved mikrojusteringer af sensorens position. Til sensorskiftbilleder bruges de samme mikrojusteringer til at have hver fotosite eksponeret for lyset fra enkeltbilledeoptagelsen. I det væsentlige bevæges sensoren rundt for ikke at justere for eksterne forstyrrelser, men for at have hver del af et billede indeholdende information i fuld farve.
Fotosites snarere end pixels
Du har muligvis bemærket udtrykket fotosites i stedet for pixels. Kameraer klassificeres ofte af deres megapixel som et mål for deres opløsningskraft, men dette er forvirrende, fordi kameraer faktisk ikke kun har pixels fotosites.
Der er pixel i det billede, der produceres, når dataene fra sensoren behandles. Selv udtrykket “pixel-shift”, som nogle gange bruges, er vildledende. Pixels bevæger sig ikke, det er sensorerne, der har fotosites, der bevæger sig.
Ved enkeltbilledeoptagelse registrerer hver fotosite data for rødt, grønt eller blåt lys. Disse data interpoleres af en computer, så hver pixel i det resulterende digitale fotografi har en værdi for alle tre farver.
Skiftende sensorer
Sensor-shift-kameraer forsøger at reducere afhængigheden af interpolering ved at indfange farvedata for rød, grøn og blå for hver resulterende pixel ved fysisk at flytte kameraets sensor. Overvej en firkant på 2 × 2 pixel taget fra et digitalt fotografi.
Konventionel digital capture med et Bayer-array registrerer data fra fire fotosites: to grønne, en blå og en rød. Teknisk betyder det, at der mangler data for blåt og rødt lys på de grønne fotosites, grønne data og røde på de blå fotosites og blå og grønne på de røde fotosites. For at løse dette problem bestemmes de manglende farveværdier for hvert sted under interpolationsprocessen.
Men hvad hvis du ikke skulle gætte? Hvad hvis du kunne have den faktiske farve (rød, blå og grøn) for hver fotosite? Dette er konceptet bag sensor-shift-teknologi.

Et billede med normal opløsning.
Dykker dybere
Overvej en 2 × 2-pixel-firkant på et digitalt fotografi, der er oprettet ved hjælp af pixel-shift-teknologi. Det første foto begynder som normalt med data, der er optaget fra de fire fotosites. Men nu skifter kameraet sensoren for at flytte fotosites rundt og tager det samme billede igen, men med en anden fotosite.
Gentag denne proces, så alle fotosiderne har alt lys for hvert nøjagtigt sted på sensoren. Under denne proces er der indhentet lysdata fra fire fotosites (to grønne, en røde, en blå) for hver pixel, hvilket resulterer i bedre farveværdier for hver placering og mindre behov for interpolering (uddannet gætte).

Et højopløsningsbillede med samme ISO, blænde og lukkerhastighed.
Sony og Pentax tilgang
Sonys Pixel Shift Multi Shooting Mode og Pentaxs Pixel Shifting Resolution System fungerer på denne måde. Det er vigtigt at bemærke, at brug af disse tilstande ikke øger det samlede antal pixels i dit endelige billede. Dimensionerne på dine resulterende filer forbliver de samme, men farvenøjagtighed og detaljer forbedres.
Sony og Pentax tager fire billeder flyttet en fuld fotosite pr. Billede for at oprette et enkelt billede. Det forbedrer simpelthen farveinformation i billedet.
Olympus og Panasonic tilgang
Panasonic- og Olympus-kameraer med høj opløsning, som begge bruger Micro Four Thirds-sensorer, tager en lidt mere nuanceret tilgang og kombinerer otte eksponeringer taget ½ pixel fra hinanden. I modsætning til Sony og Pentax øger dette antallet af pixels i det resulterende billede markant.
Fra en 20 megapixelsensor får du et 50-80 megapixels RAW-billede. Der er kun et enkelt billede uden mulighed for at få adgang til de enkelte billeder i en sekvens.
Hvad er fordelene ved at bruge Sensor-Shift?
Brug af sensor-shift-teknologi har flere fordele. Ved at tage flere billeder, kende farveoplysningerne for hver placering på fotosiden og øge opløsningen, opnår du tre hoved ting. Du mindsker støj, reducerer moire og øger den samlede opløsning af billederne.
Støj og forbedret opløsning
Ved at tage flere billeder med en subtil ændring i sensorens position, går billedets opløsning op, men det samme gør farveoplysningerne på billederne. Dette giver lignende billeder mulighed for større boring ned i billedet med glattere farver, mindre støj og bedre detaljer.

Et billede med normal opløsning.

Et billede i høj opløsning.

Beskåret tæt på det normale opløsningsbillede, begynder du at se støj som korn og farvevariation.

Her er den samme afgrøde på versionen med høj opløsning, farven og detaljerne er bedre med mindre støj.
Mindre Moire
Moire er udseendet af støj eller artefaktmønstre, der vises i billeder med stramme regelmæssige mønstre. Nyere sensorer har tendens til at have færre problemer med Moire end tidligere, men det vises stadig i nogle billeder.
Årsagen til moiren har tendens til at være relateret til de stramme mønstre, der optages, og kameraet har problemer med at løse mønsteret, fordi det har problemer med sensorens fotosite-mønstre. Farveoplysningerne til de røde, grønne og blå fotosites har problemer med kanterne i disse stramme mønstre, fordi ikke alle farver til et enkelt sted er registreret.
Med sensor-shift er al farve for hvert sted der, så moire har tendens til at forsvinde.

Normal opløsning billede.

Højopløsningsbillede med afgrødeareal fremhævet

Det beskårne område på standardopløsningsbilledet - støj begynder at dukke op (ridserne på papiret var der før).

Billedet med højere opløsning har mindre støj og flere detaljer.
Så hvorfor ikke bruge dette til hvert billede?
Nå, hovedårsagen er, at du skal tage flere billeder af en enkelt scene. Dette betyder, at dette virkelig ikke fungerer godt for motiver i bevægelse. Processen kræver mindst fire gange eksponeringstiden for enkeltbilledeoptagelse. Dette betyder fire muligheder for, at en del af din komposition og / eller dit kamera kan bevæge sig under billedoptagelse og nedværdigende billedkvalitet.
Sådanne begrænsninger begrænser teknologiens anvendelse til stilleben og (statisk) landskabsfotografering. Enhver bevægelse i scenen, der optages, vil skabe et sløret eller pixeleret område. Dette er et problem for landskabsfotografering, hvis der er en vind, der bevæger planter eller skyer samt områder, hvor der er rindende vand.
Dette betyder også, at du normalt skal være meget stabil og bruge et stativ, selvom der er nogle klare intentioner fra producenterne om at stille versioner til rådighed, der giver mulighed for håndholdt optagelse af kameraet (Pentax har denne funktion).

Høj opløsning billede taget på et stativ.

Bevægelsesgenstande er synlige, når de ses nærmere.
Quirks af nogle af systemerne
Da sensor-shift-teknologi er blevet implementeret på forskellige måder, og afhængigt af det anvendte system er problemerne lidt anderledes. Hovedkvaliteten er, at du generelt har brug for et stativ, så ingen løb og pistol.
Sony-systemet har andre begrænsninger, som du ikke kan se billedet, før du behandler de fire separate billeder sammen. Dette betyder, at du ikke kan gennemse dit opløste billede på kameraet. På grund af det høje pixeltal på A7R-mærket III er enhver subtil bevægelse af stativet desuden særlig mærkbar på det resulterende billede. For at redigere billederne skal du også bruge proprietær Sony-software til at flette billederne sammen.
Pentax har nogle interessante funktioner. Brug af softwareapplikationen, der følger med kameraet, muliggør adressering af bevægelse ved hjælp af en algoritme inden i softwaren til fjernelse af bevægelsesartefakter. Dette fungerer bedre end software, der almindeligvis bruges til billedmanipulation som Adobe.
Olympus-systemet har eksisteret et stykke tid, og i den seneste iteration på Olympus OMD EM1 Mark II vil enhver detekteret bevægelse få de berørte pixels udskiftet med dele af et af de enkelte billeder med regelmæssig opløsning i bevægelsesområder. Dette skaber ujævn opløsning, men får billedet til at se bedre ud for ting som vind. Det begrænser også især hvis der er meget bevægelse. Ofte ser billederne lidt pixeleret ud.

Standardopløsningsbillede af et træ - alt er skarpt.

Et billede i høj opløsning af det samme træ, men det blæsede… Beskåret område vises i den gule boks.

Beskåret område udvidet - vindbevægelsen genererede nogle artefakter på billedet.
Begrænsninger
Den største udfordring, som sensor-shift-billedoptagelse står over for, er bevægelige motiver. Derudover kan det være kompliceret at prøve at parre en strobe med et kamera ved hjælp af billedoptagelse med pixelforskydning af billedoptagelseshastigheden, begrænsninger for genbrug af flash og generelle kompatibilitetsproblemer. Producenterne er opmærksomme på disse problemer og arbejder på at løse dem.
Samlet set vil teknologien kun blive bedre
Flere og flere systemer bruger algoritmer til at producere disse billeder med højere opløsning. Efterhånden som teknologien modnes, får implementeringerne bedre og bedre resultater, potentielt i stand til at håndtere bevægelser og håndholdte forhold.
Fordelen for producenterne er, at der produceres billeder af bedre kvalitet uden behov for virkelig dyre sensorer med høj pixeltæthed (billigere). Fordelene ved brugeren er, at billederne kan have bedre støj- og farveinformation for bedre endelige resultater.
Glad jagt efter det perfekte billede i høj opløsning!