Auflösungsverlust durch Korrektur?

Hier geht`s um die "Augen" für die Lumix G-, GH-, GF- und GX-Modelle. Alles rund um die Micro-Four-Thirds-Linsen von Panasonic, Olympus, Leica, Voigtländer und Co.
Antworten
ThomasT
Beiträge: 2695
Registriert: Montag 9. Juli 2012, 20:19

Auflösungsverlust durch Korrektur?

Beitrag von ThomasT » Sonntag 29. Dezember 2013, 03:58

Hallo,

Kann es sein, dass ein sinigfikanter Anteil der Randunschärfen bei µFT-Objektiven durch die oft notwenige Korrektur der (meist) Tonnen- und Kissenverzerrungen der Objektive [1] herrührt?
Also zumindest der Anteil der Blendenunabhängig immer da ist.

Bei der Korrektur wird das Bild resampled (vermulich bikubisch). Da gibt es immer Auflösungsverluste und Verschmierungen.

[1] das schmutzige Geheimnis vieler µFT-Objektive ...
Lumix G3, GF3
Blackmagic Pocket Cinema Camera (super16 sensor, Cropfaktor 2.88 KB)
Panasonic 7-14, Laowa 7.5 mm, SLR Magic Hyperprime 12 mm, Panasonic 14-42, Sigma 19, Panasonic 20, Panasonic 45-150
Pentacon 29/f2.8, Pentacon 50/f1.8, Pentacon 135/f2.8

Benutzeravatar
Der_Pit
Beiträge: 509
Registriert: Montag 21. Januar 2013, 13:45
Wohnort: Stockholm und La Palma
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von Der_Pit » Sonntag 29. Dezember 2013, 12:10

Also gut tut die Interpolation der Auflösung sicher nicht, vor allem nicht, wenn man es mehrmals macht (erst Verzeichnung, dann CA Korrekturn, dann noch Horizont ausrichten....). Andererseits ist die Auflösung der meisten Objektive am Rand (rein optisch) schlechter, und dann hast Du oft mit dem FT-Sensor bereits 'Supersampling' (also jenseits der Nyquist-Frequenz, für die Fachleute), und dann geht durch die Interpolation keine Information verloren. Ich denke daher in der Praxis sind die Auswirkungen meist gering.

Sonst einfach mal ein RAW ohne alle Korrekturen entwickeln und schauen ob da die Randschärfe besser ist...
Hard: Lumix GX8 Pana 25/1.4, 100-300 Oly 75,9-18 Samyang 7.5 Laowa 7.5/2
Soft: UFRaw, Gimp, Hugin, Luminance HDR, ZereneStacker
Flickr

smokey55
Beiträge: 112
Registriert: Freitag 19. April 2013, 17:20

Re: Auflösungsverlust durch Korrektur?

Beitrag von smokey55 » Sonntag 29. Dezember 2013, 12:25

Der_Pit hat geschrieben:........ und dann hast Du oft mit dem FT-Sensor bereits 'Supersampling' (also jenseits der Nyquist-Frequenz, für die Fachleute)...
Moin,
davon höre ich zum ersten mal. Hast Du dazu eine Quelle oder ein Erläuterung Deinerseits?
Danke!

Benutzeravatar
Der_Pit
Beiträge: 509
Registriert: Montag 21. Januar 2013, 13:45
Wohnort: Stockholm und La Palma
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von Der_Pit » Sonntag 29. Dezember 2013, 13:48

Nun, die MFT-Pixel eines 16MP-Sensors sind ~3.8µ gross. Damit kann man theoretisch 133 Linien/mm abbilden (ein hell/dunkel Paar je zwei Pixel diagonal). Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Hard: Lumix GX8 Pana 25/1.4, 100-300 Oly 75,9-18 Samyang 7.5 Laowa 7.5/2
Soft: UFRaw, Gimp, Hugin, Luminance HDR, ZereneStacker
Flickr

Benutzeravatar
available
Beiträge: 6298
Registriert: Samstag 27. August 2011, 11:36
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von available » Sonntag 29. Dezember 2013, 14:05

ich kann mir nicht vorstellen, das diese Korrekturen die besonders die mFT-WW-Objektive betreffen die Auflösung nicht beeinflussen.
Das ist ein Kompromiss, der inbesondere bei Pancakes aufgrund des geringen Packmaßes eingegangen wird.
Im Gegensatz dazu benötigen die größeren FT-WW-Linsen, die den gleichen Bildkreis ausleuchten nach meinen Erfahrungen nicht diese Korrekturnotwendigkeiten.

Man kann eben nicht alles haben.
ThomasT hat geschrieben:[1] das schmutzige Geheimnis vieler µFT-Objektive ...
So ist es. Allerdings betrifft es nur die nicht telezentrischen Objektive.

Viele Grüße

Andreas
Mein Flickr
G3/GH2/E-M1
Wali 7.5
Pan 7-14/14-42/1.2 42,5/45/100-300
Nokt 0.95/25
Oly 45/75/12-40/40-150
Zeiss 1.4/50/85
Canon 70-200
Leica Summicron-M 2/50
Zuiko FT 2/14-35/50/150
Elinchrom
Gorilla/Benro B0,Sirui T025/C10/N2004/K20x,Nodalninja, Pelicase

smokey55
Beiträge: 112
Registriert: Freitag 19. April 2013, 17:20

Re: Auflösungsverlust durch Korrektur?

Beitrag von smokey55 » Sonntag 29. Dezember 2013, 19:12

Der_Pit hat geschrieben:Nun, die MFT-Pixel eines 16MP-Sensors sind ~3.8µ gross. Damit kann man theoretisch 133 Linien/mm abbilden (ein hell/dunkel Paar je zwei Pixel diagonal).
Das ist korrekt und nachvollziehbar
Der_Pit hat geschrieben:Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Das ist der Knackpunkt der mir nicht einleuchten will (zumindest der erste Teil Deiner Schussfolgerung)
Wenn, wie Du sagst, die mFT Objektive schon die Auflösung des Sensor nicht ausreizen, wie soll das dann erst bei kleineren Sensoren sein? Zum Beispiel bei einem 1/2,3" Sensor mit 12 MP (Panasonic), ist die Pixeldichte erheblich höher, die Optik aufgrund der Beugung (kleinere Blendendurchmesser) auch deutlich schlechter. Ergo kommt da nur minimale Auflösung weit unterhalb der 12 MP raus ...
Da passt für mich was in der Argumentation nicht zusammen.

BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen ;-)

ThomasT
Beiträge: 2695
Registriert: Montag 9. Juli 2012, 20:19

Re: Auflösungsverlust durch Korrektur?

Beitrag von ThomasT » Sonntag 29. Dezember 2013, 19:20

smokey55 hat geschrieben: BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen ;-)
Das hatte ich mal in irgendeinen Thread angeregt.
Totales Oversampling zu machen, so hoch dass selbst die besten Optiken überabgetastet sind. Und dann alles in der Kamera oder später zu berechnen.
Aber letztendlich bringt es wohl nicht so viel Nutzen.
Lumix G3, GF3
Blackmagic Pocket Cinema Camera (super16 sensor, Cropfaktor 2.88 KB)
Panasonic 7-14, Laowa 7.5 mm, SLR Magic Hyperprime 12 mm, Panasonic 14-42, Sigma 19, Panasonic 20, Panasonic 45-150
Pentacon 29/f2.8, Pentacon 50/f1.8, Pentacon 135/f2.8

smokey55
Beiträge: 112
Registriert: Freitag 19. April 2013, 17:20

Re: Auflösungsverlust durch Korrektur?

Beitrag von smokey55 » Sonntag 29. Dezember 2013, 20:29

ThomasT hat geschrieben: Das hatte ich mal in irgendeinen Thread angeregt.
Totales Oversampling zu machen, so hoch dass selbst die besten Optiken überabgetastet sind. Und dann alles in der Kamera oder später zu berechnen.
Aber letztendlich bringt es wohl nicht so viel Nutzen.
Das ist eine Frage des Standes der Technik, was gerade billiger und besser zu machen ist. Als die Bildverarbeitung langsam war, war ein opt. Tiefpass einacher und billiger. Mit superschnellen Prozessoren kann man das auch elektronisch machen.
In der Telekommunikation bei Telefon hat man auch damit zu tun:
Sprache die übertragen wird: 300 -3400, Abtastfrequenz: 8kHz
Entweder baut man ein aufwändiges Filter vor dem A/D-Wandler oder man macht einen einfachen Tiefpass mit 2 Bauteilen, tastet z.B. mit 256kHz ab und baut ein digitales Filter. Da ist es keine Frage was einfacher ist ;-)

Benutzeravatar
Der_Pit
Beiträge: 509
Registriert: Montag 21. Januar 2013, 13:45
Wohnort: Stockholm und La Palma
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von Der_Pit » Montag 30. Dezember 2013, 10:11

smokey55 hat geschrieben:
Der_Pit hat geschrieben:Das ist deutlich mehr als selbst gute Optiken bieten, selbst die kleinsten erkennbaren Strukturen werden von weit mehr als 3 Pixeln abgedeckt. Dann sind Strukturen im Bild so 'glatt' dass selbst kubische Interpolation kaum zu Artefakten/Verschlechterung führt.
Das ist der Knackpunkt der mir nicht einleuchten will (zumindest der erste Teil Deiner Schussfolgerung)
Wenn, wie Du sagst, die mFT Objektive schon die Auflösung des Sensor nicht ausreizen, wie soll das dann erst bei kleineren Sensoren sein? Zum Beispiel bei einem 1/2,3" Sensor mit 12 MP (Panasonic), ist die Pixeldichte erheblich höher, die Optik aufgrund der Beugung (kleinere Blendendurchmesser) auch deutlich schlechter. Ergo kommt da nur minimale Auflösung weit unterhalb der 12 MP raus ...
Da passt für mich was in der Argumentation nicht zusammen.
Nein, das passt eigentlich ganz hervorragend zusammen und erläutert vielleicht, warum eine 12MP Handy-Kamera Marketing-Unsinn ist :o
BTW man kann Oversampling machen wenn man das Tiefpassfilter vor dem Sensor wegläßt. D.h. aber nur, dass man dann entsprechende Tiefpassfilterung in der Signalverarbeitung machen müßte, sonst gibt es falsche Bildinformationen. Man kann natürlich auch die Optik als Tiefpass ansehen ;-)
Klar ist die Optik ein Tiefpass-Filter ;) Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.

Die neue E-1 hat doch keinen Filter mehr auf'm Sensor, oder? Wäre mal interessant das genauer zu untersuchen. Andreas .... ?
Hard: Lumix GX8 Pana 25/1.4, 100-300 Oly 75,9-18 Samyang 7.5 Laowa 7.5/2
Soft: UFRaw, Gimp, Hugin, Luminance HDR, ZereneStacker
Flickr

smokey55
Beiträge: 112
Registriert: Freitag 19. April 2013, 17:20

Re: Auflösungsverlust durch Korrektur?

Beitrag von smokey55 » Dienstag 31. Dezember 2013, 00:20

Der_Pit hat geschrieben:..........
Nein, das passt eigentlich ganz hervorragend zusammen und erläutert vielleicht, warum eine 12MP Handy-Kamera Marketing-Unsinn ist :o
Nee, das paßt deshalb nicht zusammen, weil ich von Kompaktkameras rede (z.b. FZ200 von Panasonic) und nicht von Handy-Spielzeug ... also, Du bist mir noch ne Antwort schuldig .... ;)
Der_Pit hat geschrieben:Klar ist die Optik ein Tiefpass-Filter ;) Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.
Ob das besser ist darüber wird überall heftig diskutiert. Es gibt schon ne Reihe Cams ohne optischen Tiefpass. Ob die Pixelpeeper immer unterscheiden können ob die SW echte Details liefert oder Aliasing-Artefakte lass ich da mal offen, zumal es in gewissen kreisen üblich ist eine Firmware so zu stricken,, dass sie Testsituationen besonders behandelt ( z.B. Spritverbrauch bei KFz, PC-Grafikkarten, Harddiscs ....) ;)

Benutzeravatar
Der_Pit
Beiträge: 509
Registriert: Montag 21. Januar 2013, 13:45
Wohnort: Stockholm und La Palma
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von Der_Pit » Freitag 3. Januar 2014, 14:01

smokey55 hat geschrieben:Nee, das paßt deshalb nicht zusammen, weil ich von Kompaktkameras rede (z.b. FZ200 von Panasonic) und nicht von Handy-Spielzeug ... also, Du bist mir noch ne Antwort schuldig .... ;)
Naja, es spielen schon mehrere Punkte rein. Einer davon ist Kontrast. Wenn Du genau Nyquist auflöst, werden Strukturen dieser Kleinheit mit nur schlechtem Kontrast dargestellt (wenn Linienraster und Pixelraster ein halbes Pixel verschoben sind, siehst Du nur eine gleichmässig helle Fläche). Ein weiterer ist, dass ja auch noch die Bayer-Maske davor ist, also je nach Farbe der Abstand der Pixel der doppelte ist. Wo genau die Grenze zum Nicht-mehr-Sinnvollen ist mag ich aber nicht bewerten...
Der_Pit hat geschrieben:Klar ist die Optik ein Tiefpass-Filter ;) Und wenn die mehr durchlässt als der Sensor auflösen kann, bekommst Du Artefakte ('Aliasing'). Man kann das auch in der Signalverarbeitung korrigieren, aber mMn ist es besser, das bereits vor der Digitalisierung zu tun.
Ob das besser ist darüber wird überall heftig diskutiert. Es gibt schon ne Reihe Cams ohne optischen Tiefpass. Ob die Pixelpeeper immer unterscheiden können ob die SW echte Details liefert oder Aliasing-Artefakte lass ich da mal offen, zumal es in gewissen kreisen üblich ist eine Firmware so zu stricken,, dass sie Testsituationen besonders behandelt ( z.B. Spritverbrauch bei KFz, PC-Grafikkarten, Harddiscs ....) ;)
Ich seh' es vom Standpunkt der Signalverarbeitung - durch das Aliasing werden Strukturinformationen vermischt (der Teil jenseits der Sensor-Auflösung wird 'umgeklappt'), und ohne Annahmen über die Art der Strukturen kann man das eigentlich nicht korrigieren, also nur abschätzen. Eine Optimierung auf (bekannte) Tests liegt da natürlich nahe :o
Hard: Lumix GX8 Pana 25/1.4, 100-300 Oly 75,9-18 Samyang 7.5 Laowa 7.5/2
Soft: UFRaw, Gimp, Hugin, Luminance HDR, ZereneStacker
Flickr

smokey55
Beiträge: 112
Registriert: Freitag 19. April 2013, 17:20

Re: Auflösungsverlust durch Korrektur?

Beitrag von smokey55 » Freitag 3. Januar 2014, 16:43

Moin,
wir liegen anscheind doch nicht so weit auseinander in unserer Meinung wie es den Anschein hatte ;-)

Ich reite deshalb etwas auf dem Thema rum, weil ich ein Sigma DN60 habe. Das hat bekanntermaßen eine hervorragende Schärfe und das bis zum Rand, weil es auch für APS-C geeignet ist. Allerdings ist die Tiefenschärfe so gering, dass man beim Objekt (z.B. bei Repro einer Zeitschrift) aufpassen muss, dass es möglichst senkrecht zur optischen Achse ist. Wie groß die Verzerrung ist kann ich gar nicht sagen, da ich i.M. kein RAW-Programm ohne Korrektur habe. Jedenfalls ist es mir noch nicht gelungen außen die gleiche Schärfe zu erreichen wie im Zentrum.

Diese Objektiv wurde auch bei dxomark getestet, sowohl an Sony, als auch an mFT .... mit sehr unterscheidlichen Ergebnissen:
http://www.dxomark.com/Lenses/Sigma/Sig ... N-A-Sony-E" onclick="window.open(this.href);return false;" onclick="window.open(this.href);return false;
http://www.dxomark.com/Lenses/Sigma/Sig ... C-GX7__901" onclick="window.open(this.href);return false;" onclick="window.open(this.href);return false;

Bei mFT kann man verschiedene CAMs auswählen. Die Ergebnisse sind mir so wenig erklärlich, dass ich sogar Sigma deshalb angeschrieben habe ... bislang ohne Antwort.
Warum der Aufstand? Schaut Euch mal das hier an:
Measurements/Chromatic abberation - field map: Blende 2,8 okay, aber dann ab 4! ... und das mit Sony verglichen. Da ist doch was oberfaul!
Vor allem gibt es bei Oly & Pana auch CAMswo das Ergebniss okay ist. Korrigieren einige mFTs das Objektiv anders als andere? Würde aber nicht erklären wieso Blende 2,8 okay ist ....

Benutzeravatar
Der_Pit
Beiträge: 509
Registriert: Montag 21. Januar 2013, 13:45
Wohnort: Stockholm und La Palma
Kontaktdaten:

Re: Auflösungsverlust durch Korrektur?

Beitrag von Der_Pit » Samstag 4. Januar 2014, 14:49

Ich kann die Daten auf der Website leider irgendwie nicht angucken - krieg entweder immer nur 'no data to display' oder nur so nen Farbbalken??
Insofern nur: Wenn die CA wirklich schlechter wird mit kleinerer Öffnung dann klingt das schon seltsam. Ob das was mit der Interpolation zu tun hat lässt sich aber nur durch Vergleich rausfinden. dcraw entwickelt ohne Korrekturen - ist OS und gibt's auch für Windows. LensTip mach z.B. seine Tests immer damit, um echt das Glas zu testen. Allerdings würde ich nicht erwarten dass die Korektur/Interpolation eine CA verursacht - ausser die Korrekturparameter selber sind falsch.
Eine abnehmende Schärfe zum Rand hin ist aber auch normal (geht optisch gar nicht anders da sich ausserhalb der optischen Achse die - projezierte - Öffnung in einer Richtung verringert, und damit auch die Auflösung). Ob es in Deinem Fall (durch Interpolation) mehr als normal ist könnte nur so ein dcraw-Test zeigen....
Hard: Lumix GX8 Pana 25/1.4, 100-300 Oly 75,9-18 Samyang 7.5 Laowa 7.5/2
Soft: UFRaw, Gimp, Hugin, Luminance HDR, ZereneStacker
Flickr

Antworten

Zurück zu „Objektive für die G-, GH-, GF-, GM- und GX-Reihe“