Warum kann man bei Farbkameras ein Objektiv geringerer Auflösung verwenden als bei Monochromkameras?

Der Unterschied zwischen den üblichen Farb- und Monochrom-(„schwarz-weiss“-) Kameras ist eine zusätzliche Schicht kleiner Farbfilter, meist im sogenannten „Bayer-Muster“ (patentiert von Bryce E. Bayer, 1976, Mitarbeiter von Eastman Kodak).

Bayer_pattern_on_sensorBayer-Matrix auf Sensoren von Farbkameras (C)Wikipedia

In einer idealen Welt würde ein Objektiv jeden (beliebig kleinen) Punkt auf dem Objekt abbilden auf einen (beliebig kleinen) Punkt auf dem Sensor. Beliebig kleine Pixel könnten unterstützt werden.

Stattdessen ist es physikalisch leider nur möglich statt eines Punktes ein kleines Lichtscheibchen (=“Airy Scheibchen“) zu beleuchten.
Die für einen Objektiv angegeben Megapixel sind ein grobes Maß für die Größe dieses Scheibchens. Je mehr Megapixel, desto kleiner das Scheibchen.

Soll das Bild auf einem Monochromsensor scharf dargestellt sein, muss das Scheibchen in ein Pixel passen.

Bei einem Farbsensor mit „Bayer Muster“ (=“Bayer Pattern“) gibt es z.B. ein rotes Pixel nur in jeder zweiten Spalte und Zeile. Wenn hier das Lichtscheibchen in ein Einzelpixel passt, kann das sogar unerwünscht sein:

Image of Color Moiré

Color Moiré (Klicken zum Vergrößern)

Das Scheibchen sollte so groß sein, dass immer ein rotes, ein Blaues und zwei grüne Pixel erfasst werden, also z.B. 2×2 Pixel groß. Das bedeutet, dass das Objektiv im Vergleich zu dem Objektiv für eine Monochromkamera eine reduzierte Auflösung haben kann und sollte.
Vermeiden läßt sich das Color Moiré mit einem Objektiv geringerer Auflösung, wie oben, oder mit einem (teuren!) sog. „OLP“ Filter, der für eine garantierte Mindestunschärfe von 2 Pixeln sorgt. Solche Filter werden angefragt, wenn Kunden Videokonferenzen wollen und auf gar keinen Fall Color Moiré entstehen soll. OLP =“Optical Low Pass filter“.

Nehmen wir einmal an, der Sensor habe eine Million Pixel. Dann hat er 500.000 grüne, 250.000 blaue und 250.000 rote Pixel. Die Software auf dem Computer wandelt diese in ein „RGB Bild“ von 1.000.000 Pixeln, das also rote und grüne und blaue Intensitäten hat.
Dies ist möglich, weil jedes Pixel direkte Nachbarn in den anderen Farben hat. Am Ort eines grünen Pixels kann so etwa die Rot-Intensität vorausgesagt werden aus den Intensitäten der roten Pixel in der direkten Nachbarschaft. Als Seiteneffekt, ist das RGB Bild auf dem Computer gemessen in Speicherplatz größer als das Bild auf dem Sensor!