Lenno hat geschrieben:Da hast du was falsch verstanden, das 14er zeigt überall die 1:1 Darstellung, das 45er nur 1:3 Darstellung (nicht 3:1) ist also kleiner als 1:1 dargestellt.
Logischerweise ist das 45er durch die längere Brennweite näher am Geschehen dran, zeigt die Dinge also größer, deshalb musste ich dort auf 1:3 runtergehen.
Ich bin zwar beim fotografieren schon einige Meter zurückgegangen, soweit ich eben konnte, ganz aber konnte ich den Brennweitenunterschied nicht ausgleichen.
Dann ist der Test trotzdem unsinnig.
Der Skalierungsfaktor bleibt relativ der selbe.
Oder eigentlich erst recht!
Natürlich hat das 45 mehr Detailauflösung. Schlicht deshalb weil es um den Faktor 3 vergrößert! Und wenn du dann verkleinerst bleibt ein Teil der Informationen trotzdem erhalten.
D.h. das verkleinerte Bild vom 45er hat all die Informationen, die mit der geringeren Pixelanzahl möglich sind. Während beim 14 sozusagen schlechteres Ausgangsmaterial vorliegt. Die möglichen Abbildungsfehler (vorallem geringere Schärfe, geringere MTF) werden sozusagen durch das verkleinern weggemittelt, während sie beim 14 in voller Wucht in Erscheinung treten.
Für einen realen Vergleich müsstest du z.B. den Kirchtum in
gleicher Größe aufs Bild bekommen. Dazu müsstest du beim 45er natürlich rund drei Mal so weit weg. Und dann die Details vergleichen.
Es ist völlig logisch: wenn man ein Bild aus Aufnahmen mit einem 100 mm Objektiv zusammensticht, dass da mehr Details sind als wenn man ein 10 mm nimmt.
Und das nicht nur, weil man 10 Mal mehr Pixel pro Zeile hat. Nein, auch wenn man das gestichtet Bild dann um den Faktor 10 verkleinert.
Stell dir mal zwei Top-Objektive vor, die keinerlei optische Probleme haben. Ein 15mm und ein 45 mm. Die sind beide total scharf, haben keine CAs etc.
Jetzt photographierst du in der Ferne einen Gegenstand, der mit dem 15 mm genau eine Pixelbreite auf dem Sensor hat. Z.B. einen entfernten Turm. Stellen wir uns einen Schwarzweiss-Sensor dazu vor. Der Turm sei 0% schwarz. Der Himmel dahinter 100% weiss.
Natürlich triff der Turm kaum genau eine Pixelreihe. Zudem verschmiert das AAF etwas. Also werden zwei bis drei Pixelreihen nebeneinander geschwärzt sein. Der Rest ist 100% weiss.
Der Turm ist also nicht 100% schwarz auf dem Bild sondern verschmiert. Das ist immer so.
Die mittlere Pixelreihe sei 25%. Die beiden daneben 50%.
Beim 15er kommt aber die Modulation Transfer Funktion des Objektivs dazu (also es ist kein ganz ideales ...

) Die besagt dass für höhere Ortsfrequenzen, also kleinere Detail, die Schwärzung bzw. Weissung nicht mehr 100% ist, sondern weniger. Schwarz wird zu dunkelgrau, Weiss zu hellgrau.
Der Turm ist also nochmals weniger schwarz, vielleicht 40%, daneben nicht 50% sondern vielleicht 60% Helligkeit. Aber daneben (auf den weitern Pixelreihen) wird der Himmel leicht geschwärzt. Er ist nicht mehr 100%, sondern auch 90%.
Statt einem idealen Querschnitt von 100, 100, 100, 0, 100, 100, 100 haben wir durch Abstastung (Pixel nicht genau getroffen und AAF) 100, 100, 50, 25, 50, 100, 100.
Beim 15 kommt die MFT dazu. 100, 90, 60, 40, 60, 90, 100. D.h. der Turm ist über 5 Pixel verschmiert und viel heller als 0.
Beim 45er wird der Turm über 3 Pixel abgebildet. Es vergrößert ja um den Faktor 3. Leicht verschmiert, da auch hier AAF zuschlägt, über 5.
Aber die MFT ist für größere Details auch größer. Also wird der Turm beim 45 vieleicht abgebildet.
100, 80, 20, 0, 20, 80, 100.
Jetzt verkleinest du dieses Bild. Durch bikubische (oder auch bilineare) Neu-Berechnung kommt etwas Unschärfe, d.h. weitere Verschmierung hinzu. Aber dies ist relativ gering, wie jeder weiss, der ein Bild mal verkleinert hat. (btw. es ist auch egal, ob mal krumme Vergrößerungsfaktoren wählt oder ganze Vielfache wie 2 und 4)
Groß gesagt, ohne Bikubische Berechung tatsächlich anzuwenden, werden also aus 3 Pixel (eigl. 9, aber hier nur eine Dimension betrachtet) 1 Pixel.
Der mittlere Pixel (aus 20, 0, 20) ist irgendwas bei 10. Nicht genau das arithmetische Mittel, der mittlere ist stärker gewichtet.
Die beiden daneben sind irgendwas bei 95 (gewichtet gemittelt aus 100, 100, 80). Die weitern daneben sind 100 - der vollweiss Himmel.
Betrachten wir das Endergebnis:
Helligkeitsquerschnitt von 15er: 100, 90, 60, 40, 60, 90, 100
Helligkeitsquerschnitt von 45er: 100, 100, 95, 10, 95, 100, 100
Der Turm beim 15er Bild ist also im Endbild über 5 Pixel verschmiert und gar nicht mehr schwarz. Mit einem Grauverlauf über 3 Pixel geht er ins 100% Weiss über.
Beim verkleinerten 45er Bild ist er viel dunkler. Fast schwarz. Und Knackscharf, der Unschärfegrauverlauf ist steil und nur über 2 Pixel.
Und last but not least kommt bei Farbe noch das Debayering dazu. Letztendlich auch eine intelligente Mittellung über mindestens 4 Pixel. Im Querschnitt 2 Pixel. Aber die Algorithmen sind komplexer.
D.h. gehe ich so vor wie du, dann muss das Bild von 14er bei angenommen gleich guten Objekten aus folgenden Gründen schlechter sein:
- die MFT ist für das gleiche Landschaftsdetail grundsätzlich geringer. Der Gegenstand wird stärker verschmiert.
- die Auswirkungen der MFT beim 45er werden zudem mit dem Verkleinern mit verkleinert.
- Artefakte des Debayering werden durch die Verkleinerung ebenfalls um den Faktor 3 verkleinert.
-> der Versuchsaufbau ist unsinnig. Es sei denn im Ergebnis stellt sich raus, dass 14er und 45 gleich gut sind oder das 14er gar besser. In den Fällen wäre das 45er Schrott. Sind 14er und 45 optisch gleichwertig (d.h. ein Gegenstand mit Details beide Mals bildfüllend abgebildet sieht gleichscharf aus) dann muss bei deinem Versuch herauskommen, dass das 14er schlechter ist.
Was es aber nicht sein muss. Sehr wohl aber kann, denn die Einzeleffekt schätzend zu quantifizieren ist schwierig.
Wenn du statt das 45er Bild zu verkleinern, das 14er hättest um den Faktor 3 vergrößert, wäre zumindest die Herausmittelung der Abbildungsfehler des 45 durch Verkleinerung aussen vor. Trotzdem sind diese immer noch relativ ein Drittel geringer.