Auflösung, Teil 1: Was der Sensor sieht
Die Auflösung eines Sensors scheint eine einfache Sache zu sein. Man gibt sie in Megapixeln an, und damit scheint alles gesagt zu sein. Doch ganz so einfach ist es nicht. Michael Hußmann erklärt, warum das so ist.
Zwei Komponenten sind ausschlaggebend für die Auflösung einer Kamera, das Objektiv und der Sensor. So weit es den Sensor betrifft, ist dessen Auflösung von der Zahl seiner Pixel bestimmt, während die Auflösung des Objektivs ein weit komplexeres Thema ist. Wie viele Linien ein Objektiv mit hinreichendem Kontrast auflöst, hängt von der Blende, der Entfernungseinstellung und bei Zooms auch von der Brennweite ab; zudem ist die Auflösung nicht im ganzen Bild einheitlich und zum Rand hin durchweg geringer als in der Bildmitte. Der Sensor dagegen legt ein einheitliches Raster über das vom Objektiv erzeugte optische Bild und liefert digitale Bilder mit ebenso vielen Bildpunkten, wie es das Datenblatt angibt. Dass die Auflösung eines Sensors dennoch nicht so einfach zu beschreiben ist, bemerkt man bereits, wenn man sie mit der Auflösung eines Objektivs vergleichen will.
Auflösungswettbewerb
Wann immer ein Hersteller einen weiteren Sprung bei der Megapixelzahl verkündet, fragen sich die Kunden, ob ihre Objektive einem so hochauflösenden Sensor überhaupt gerecht werden. Die Auflösungen von Sensor und Objektiv lassen sich schon deshalb schwer vergleichen, weil es keine gemeinsame Maßeinheit gibt: Beim Sensor zählt man Pixel, während sich die optische Auflösung danach bemisst, mit welchem Kontrast das Objektiv feinste Strukturen abbildet.
Theoretiker verweisen auf das sogenannte Abtasttheorem und die Nyquist-Grenze, und dieses Kriterium ist simpler, als es klingt. Als Testmotiv dient ein Muster aus schwarzen und weißen Linien, und je mehr Linien oder Linienpaare auf einen Millimeter gehen, desto höher ist die sogenannte Ortsfrequenz – feine Strukturen haben eine hohe Ortsfrequenz und grobe Strukturen eine niedrige. Es liegt nun auf der Hand, dass man wenigstens zwei Reihen von Sensorpixeln braucht, um zwei Linien (eine schwarze und eine weiße) aufzulösen. Aber selbst zwei Pixelreihen reichen nicht im- mer aus. Wenn die weiße Linie präzise auf die eine Reihe und die schwarze Linie auf die andere fällt, kann der Sensor das Linien- paar mit maximalem Kontrast erkennen. Fällt das Linienpaar aber um eine halbe Pixelbreite verschoben auf den Sensor, so sieht je- des Pixel jeweils zur Hälfte Weiß und zur anderen Hälfte Schwarz, was immer Grau ergibt – die Linien werden dann überhaupt nicht mehr aufgelöst. Erst wenn das Pixelraster noch etwas dichter ist und ein Linienpaar …
Lesen Sie weiter in
-
digit! 5-2019
84 Seiten.
inkl. MwSt.
zzgl. Versandkosten
Lieferzeit: 2-3 Werktage