Reduzieren der Bildauflösung sinnvoll?
Verfasst: Freitag 17. April 2020, 15:42
Ich frag mich schon länger, ob es eigentlich unter entsprechenden Randbedingungen sinnvoll ist, die Auflösung der Kamera in den Einstellungen zu reduzieren. Klar ist: Die tatsächliche physikalische Auflösung und Pixeldichte des Bildsensors bleibt davon unberührt. Jedoch frage ich mich: Werden Pixel zusammengefasst?
Folgendes Gedankenspiel. Wir haben zwei Kleinbildkameras. Kamera A hat 10 Megapixel. Kamera B hat 40 MP. Rechnerisch könnte man bei Kamera A jetzt gefahrlos bis Blende 14 abblenden, ohne dass Details durch die zunehmende Diffraktion des Lichts verloren gehen würden. Bei Kamera B ist diese Grenze hingegen bereits ab Blende 7 aufwärts erreicht. Angenommen, ich möchte jetzt aus einem bestimmten Grund mit Blende 14 fotografieren. Wäre es sinnvoll die Auflösung an Kamera B in den Einstellungen von 40MP auf 10MP zu reduzieren? Oder anders formuliert: Wenn eine Kamera mit 40 MP-Sensor eine 10 MP Bilddatei erstellen soll... nutzt sie dann die Pixel in Viererblöcken um ein Gesamtpixel zu errechnen? Oder streicht sie einfach 75% der Pixel weg, und nutzt fürs Bild lediglich die Pixel in jeder zweiten Zeile und jeder zweiten Spalte? Im ersten Fall sollte man doch zwischen Kamera A und Kamera B theoretisch keinen Unterschied bemerken können, richtig?
Vielleicht habe ich auch noch einen Überlegungsfehler gemacht. Beispielsweise könnte ich mir vorstellen dass das Zusammenfassen benachbarter Pixel wegen dem Bayer-Farbfilter ohne weiters nicht möglich ist.
Die ganze Fragestellung könnte man noch weiter betrachten. Angenommen es gibt wenig Licht und kurze Verschlusszeiten sind wegen Bewegungsunschärfe erforderlich. Wird dann das ISO-Rauschen weniger, wenn die Auflösung in den Einstellungen geviertelt wird? Oder ist das der Kamera komplett egal, und ignoriert sie 75% der Pixel dann schlicht einfach?
Eventuell könnte dies auch eine Kamera-spezifische Eigenschaften sein, aber diese Fragestellung beschäftigt mich schon länger. Was meint ihr?
Folgendes Gedankenspiel. Wir haben zwei Kleinbildkameras. Kamera A hat 10 Megapixel. Kamera B hat 40 MP. Rechnerisch könnte man bei Kamera A jetzt gefahrlos bis Blende 14 abblenden, ohne dass Details durch die zunehmende Diffraktion des Lichts verloren gehen würden. Bei Kamera B ist diese Grenze hingegen bereits ab Blende 7 aufwärts erreicht. Angenommen, ich möchte jetzt aus einem bestimmten Grund mit Blende 14 fotografieren. Wäre es sinnvoll die Auflösung an Kamera B in den Einstellungen von 40MP auf 10MP zu reduzieren? Oder anders formuliert: Wenn eine Kamera mit 40 MP-Sensor eine 10 MP Bilddatei erstellen soll... nutzt sie dann die Pixel in Viererblöcken um ein Gesamtpixel zu errechnen? Oder streicht sie einfach 75% der Pixel weg, und nutzt fürs Bild lediglich die Pixel in jeder zweiten Zeile und jeder zweiten Spalte? Im ersten Fall sollte man doch zwischen Kamera A und Kamera B theoretisch keinen Unterschied bemerken können, richtig?
Vielleicht habe ich auch noch einen Überlegungsfehler gemacht. Beispielsweise könnte ich mir vorstellen dass das Zusammenfassen benachbarter Pixel wegen dem Bayer-Farbfilter ohne weiters nicht möglich ist.
Die ganze Fragestellung könnte man noch weiter betrachten. Angenommen es gibt wenig Licht und kurze Verschlusszeiten sind wegen Bewegungsunschärfe erforderlich. Wird dann das ISO-Rauschen weniger, wenn die Auflösung in den Einstellungen geviertelt wird? Oder ist das der Kamera komplett egal, und ignoriert sie 75% der Pixel dann schlicht einfach?
Eventuell könnte dies auch eine Kamera-spezifische Eigenschaften sein, aber diese Fragestellung beschäftigt mich schon länger. Was meint ihr?