Seite 1 von 1
Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 03:58
von ThomasT
Hallo,
Kann es sein, dass ein sinigfikanter Anteil der Randunschärfen bei µFT-Objektiven durch die oft notwenige Korrektur der (meist) Tonnen- und Kissenverzerrungen der Objektive [1] herrührt?
Also zumindest der Anteil der Blendenunabhängig immer da ist.
Bei der Korrektur wird das Bild resampled (vermulich bikubisch). Da gibt es immer Auflösungsverluste und Verschmierungen.
[1] das schmutzige Geheimnis vieler µFT-Objektive ...
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 12:10
von Der_Pit
Also gut tut die Interpolation der Auflösung sicher nicht, vor allem nicht, wenn man es mehrmals macht (erst Verzeichnung, dann CA Korrekturn, dann noch Horizont ausrichten....). Andererseits ist die Auflösung der meisten Objektive am Rand (rein optisch) schlechter, und dann hast Du oft mit dem FT-Sensor bereits 'Supersampling' (also jenseits der Nyquist-Frequenz, für die Fachleute), und dann geht durch die Interpolation keine Information verloren. Ich denke daher in der Praxis sind die Auswirkungen meist gering.
Sonst einfach mal ein RAW ohne alle Korrekturen entwickeln und schauen ob da die Randschärfe besser ist...
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 12:25
von smokey55
Der_Pit hat geschrieben:........ und dann hast Du oft mit dem FT-Sensor bereits 'Supersampling' (also jenseits der Nyquist-Frequenz, für die Fachleute)...
Moin,
davon höre ich zum ersten mal. Hast Du dazu eine Quelle oder ein Erläuterung Deinerseits?
Danke!
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 13:48
von Der_Pit
Nun, die MFT-Pixel eines 16MP-Sensors sind ~3.8µ gross. Damit kann man theoretisch 133 Linien/mm abbilden (ein hell/dunkel Paar je zwei Pixel diagonal). Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 14:05
von available
ich kann mir nicht vorstellen, das diese Korrekturen die besonders die mFT-WW-Objektive betreffen die Auflösung nicht beeinflussen.
Das ist ein Kompromiss, der inbesondere bei Pancakes aufgrund des geringen Packmaßes eingegangen wird.
Im Gegensatz dazu benötigen die größeren FT-WW-Linsen, die den gleichen Bildkreis ausleuchten nach meinen Erfahrungen nicht diese Korrekturnotwendigkeiten.
Man kann eben nicht alles haben.
ThomasT hat geschrieben:[1] das schmutzige Geheimnis vieler µFT-Objektive ...
So ist es. Allerdings betrifft es nur die nicht telezentrischen Objektive.
Viele Grüße
Andreas
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 19:12
von smokey55
Der_Pit hat geschrieben:Nun, die MFT-Pixel eines 16MP-Sensors sind ~3.8µ gross. Damit kann man theoretisch 133 Linien/mm abbilden (ein hell/dunkel Paar je zwei Pixel diagonal).
Das ist korrekt und nachvollziehbar
Der_Pit hat geschrieben:Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Das ist der Knackpunkt der mir nicht einleuchten will (zumindest der erste Teil Deiner Schussfolgerung)
Wenn, wie Du sagst, die mFT Objektive schon die Auflösung des Sensor nicht ausreizen, wie soll das dann erst bei kleineren Sensoren sein? Zum Beispiel bei einem 1/2,3" Sensor mit 12 MP (Panasonic), ist die Pixeldichte erheblich höher, die Optik aufgrund der Beugung (kleinere Blendendurchmesser) auch deutlich schlechter. Ergo kommt da nur minimale Auflösung weit unterhalb der 12 MP raus ...
Da passt für mich was in der Argumentation nicht zusammen.
BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen

Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 19:20
von ThomasT
smokey55 hat geschrieben:
BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen

Das hatte ich mal in irgendeinen Thread angeregt.
Totales Oversampling zu machen, so hoch dass selbst die besten Optiken überabgetastet sind. Und dann alles in der Kamera oder später zu berechnen.
Aber letztendlich bringt es wohl nicht so viel Nutzen.
Re: Auflösungsverlust durch Korrektur?
Verfasst: Sonntag 29. Dezember 2013, 20:29
von smokey55
ThomasT hat geschrieben:
Das hatte ich mal in irgendeinen Thread angeregt.
Totales Oversampling zu machen, so hoch dass selbst die besten Optiken überabgetastet sind. Und dann alles in der Kamera oder später zu berechnen.
Aber letztendlich bringt es wohl nicht so viel Nutzen.
Das ist eine Frage des Standes der Technik, was gerade billiger und besser zu machen ist. Als die Bildverarbeitung langsam war, war ein opt. Tiefpass einacher und billiger. Mit superschnellen Prozessoren kann man das auch elektronisch machen.
In der Telekommunikation bei Telefon hat man auch damit zu tun:
Sprache die übertragen wird: 300 -3400, Abtastfrequenz: 8kHz
Entweder baut man ein aufwändiges Filter vor dem A/D-Wandler oder man macht einen einfachen Tiefpass mit 2 Bauteilen, tastet z.B. mit 256kHz ab und baut ein digitales Filter. Da ist es keine Frage was einfacher ist

Re: Auflösungsverlust durch Korrektur?
Verfasst: Montag 30. Dezember 2013, 10:11
von Der_Pit
smokey55 hat geschrieben:Der_Pit hat geschrieben:Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Das ist der Knackpunkt der mir nicht einleuchten will (zumindest der erste Teil Deiner Schussfolgerung)
Wenn, wie Du sagst, die mFT Objektive schon die Auflösung des Sensor nicht ausreizen, wie soll das dann erst bei kleineren Sensoren sein? Zum Beispiel bei einem 1/2,3" Sensor mit 12 MP (Panasonic), ist die Pixeldichte erheblich höher, die Optik aufgrund der Beugung (kleinere Blendendurchmesser) auch deutlich schlechter. Ergo kommt da nur minimale Auflösung weit unterhalb der 12 MP raus ...
Da passt für mich was in der Argumentation nicht zusammen.
Nein, das passt eigentlich ganz hervorragend zusammen und erläutert vielleicht, warum eine 12MP Handy-Kamera Marketing-Unsinn ist
BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen

Klar ist die Optik ein Tiefpass-Filter

Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.
Die neue E-1 hat doch keinen Filter mehr auf'm Sensor, oder? Wäre mal interessant das genauer zu untersuchen. Andreas .... ?
Re: Auflösungsverlust durch Korrektur?
Verfasst: Dienstag 31. Dezember 2013, 00:20
von smokey55
Der_Pit hat geschrieben:..........
Nein, das passt eigentlich ganz hervorragend zusammen und erläutert vielleicht, warum eine 12MP Handy-Kamera Marketing-Unsinn ist

Nee, das paßt deshalb nicht zusammen, weil ich von Kompaktkameras rede (z.b. FZ200 von Panasonic) und nicht von Handy-Spielzeug ... also, Du bist mir noch ne Antwort schuldig ....
Der_Pit hat geschrieben:Klar ist die Optik ein Tiefpass-Filter

Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.
Ob das besser ist darüber wird überall heftig diskutiert. Es gibt schon ne Reihe Cams ohne optischen Tiefpass. Ob die Pixelpeeper immer unterscheiden können ob die SW echte Details liefert oder Aliasing-Artefakte lass ich da mal offen, zumal es in gewissen kreisen üblich ist eine Firmware so zu stricken,, dass sie Testsituationen besonders behandelt ( z.B. Spritverbrauch bei KFz, PC-Grafikkarten, Harddiscs ....)

Re: Auflösungsverlust durch Korrektur?
Verfasst: Freitag 3. Januar 2014, 14:01
von Der_Pit
smokey55 hat geschrieben:Nee, das paßt deshalb nicht zusammen, weil ich von Kompaktkameras rede (z.b. FZ200 von Panasonic) und nicht von Handy-Spielzeug ... also, Du bist mir noch ne Antwort schuldig ....
Naja, es spielen schon mehrere Punkte rein. Einer davon ist Kontrast. Wenn Du genau Nyquist auflöst, werden Strukturen dieser Kleinheit mit nur schlechtem Kontrast dargestellt (wenn Linienraster und Pixelraster ein halbes Pixel verschoben sind, siehst Du nur eine gleichmässig helle Fläche). Ein weiterer ist, dass ja auch noch die Bayer-Maske davor ist, also je nach Farbe der Abstand der Pixel der doppelte ist. Wo genau die Grenze zum Nicht-mehr-Sinnvollen ist mag ich aber nicht bewerten...
Der_Pit hat geschrieben:Klar ist die Optik ein Tiefpass-Filter

Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.
Ob das besser ist darüber wird überall heftig diskutiert. Es gibt schon ne Reihe Cams ohne optischen Tiefpass. Ob die Pixelpeeper immer unterscheiden können ob die SW echte Details liefert oder Aliasing-Artefakte lass ich da mal offen, zumal es in gewissen kreisen üblich ist eine Firmware so zu stricken,, dass sie Testsituationen besonders behandelt ( z.B. Spritverbrauch bei KFz, PC-Grafikkarten, Harddiscs ....)

Ich seh' es vom Standpunkt der Signalverarbeitung - durch das Aliasing werden Strukturinformationen vermischt (der Teil jenseits der Sensor-Auflösung wird 'umgeklappt'), und ohne Annahmen über die Art der Strukturen kann man das eigentlich nicht korrigieren, also nur abschätzen. Eine Optimierung auf (bekannte) Tests liegt da natürlich nahe

Re: Auflösungsverlust durch Korrektur?
Verfasst: Freitag 3. Januar 2014, 16:43
von smokey55
Moin,
wir liegen anscheind doch nicht so weit auseinander in unserer Meinung wie es den Anschein hatte
Ich reite deshalb etwas auf dem Thema rum, weil ich ein Sigma DN60 habe. Das hat bekanntermaßen eine hervorragende Schärfe und das bis zum Rand, weil es auch für APS-C geeignet ist. Allerdings ist die Tiefenschärfe so gering, dass man beim Objekt (z.B. bei Repro einer Zeitschrift) aufpassen muss, dass es möglichst senkrecht zur optischen Achse ist. Wie groß die Verzerrung ist kann ich gar nicht sagen, da ich i.M. kein RAW-Programm ohne Korrektur habe. Jedenfalls ist es mir noch nicht gelungen außen die gleiche Schärfe zu erreichen wie im Zentrum.
Diese Objektiv wurde auch bei dxomark getestet, sowohl an Sony, als auch an mFT .... mit sehr unterscheidlichen Ergebnissen:
http://www.dxomark.com/Lenses/Sigma/Sig ... N-A-Sony-E" onclick="window.open(this.href);return false;" onclick="window.open(this.href);return false;
http://www.dxomark.com/Lenses/Sigma/Sig ... C-GX7__901" onclick="window.open(this.href);return false;" onclick="window.open(this.href);return false;
Bei mFT kann man verschiedene CAMs auswählen. Die Ergebnisse sind mir so wenig erklärlich, dass ich sogar Sigma deshalb angeschrieben habe ... bislang ohne Antwort.
Warum der Aufstand? Schaut Euch mal das hier an:
Measurements/Chromatic abberation - field map: Blende 2,8 okay, aber dann ab 4! ... und das mit Sony verglichen. Da ist doch was
oberfaul!
Vor allem gibt es bei Oly & Pana auch CAMswo das Ergebniss okay ist. Korrigieren einige mFTs das Objektiv anders als andere? Würde aber nicht erklären wieso Blende 2,8 okay ist ....
Re: Auflösungsverlust durch Korrektur?
Verfasst: Samstag 4. Januar 2014, 14:49
von Der_Pit
Ich kann die Daten auf der Website leider irgendwie nicht angucken - krieg entweder immer nur 'no data to display' oder nur so nen Farbbalken??
Insofern nur: Wenn die CA wirklich schlechter wird mit kleinerer Öffnung dann klingt das schon seltsam. Ob das was mit der Interpolation zu tun hat lässt sich aber nur durch Vergleich rausfinden. dcraw entwickelt ohne Korrekturen - ist OS und gibt's auch für Windows. LensTip mach z.B. seine Tests immer damit, um echt das Glas zu testen. Allerdings würde ich nicht erwarten dass die Korektur/Interpolation eine CA
verursacht - ausser die Korrekturparameter selber sind falsch.
Eine abnehmende Schärfe zum Rand hin ist aber auch normal (geht optisch gar nicht anders da sich ausserhalb der optischen Achse die - projezierte - Öffnung in einer Richtung verringert, und damit auch die Auflösung). Ob es in Deinem Fall (durch Interpolation) mehr als normal ist könnte nur so ein dcraw-Test zeigen....