Für mich ist es so, dass das Objektiv erst einmal die "Beugung" verursacht und der Sensor das Licht empfängt.
Also hat die Anzahl Pixel auf dem Sensor erst einmal nichts mit der Beugung zu tun.
Der Sensor selbst wertet das ankommende Licht aus und die Unterschiede in Helligkeit und Farbe werden ausgewertet.
Je besser das Objektiv ist desto feiner sind die Unterschiede. (Auflösungsvermögen)
Als vereinfachtes Beispiel:
Der Sensor hätte an einem Teil der Gesamtfläche 4 (entspräche 16MP) oder 6 Fotozellen(entspräche 20MP).
Sollten die ankommenden Helligkeit-Farbunterschiede auf einer Größe von 6 Pixel nicht unterschieden werden können,(schlechtes Auflösungsvermögen) dann übernehmen beide Sensoren die gleiche Informationen und leiten diese weiter.
Ist das Objektiv in der Lage auf der Größe einer Fotozelle aufzulösen und und der Sensor kann einen Unterschied zwischen den nebeneinander liegenden Fotozellen erkennen dann wäre beim dem einen Sensor theoretisch 4- und beim anderen 6 unterschiedliche Informationen auswertbar und würden mehr Details zeigen können.
Ich habe das bewusst jetzt mal einfach versucht zu formulieren und will auch andere beeinflussende Parameter nicht ins Spiel bringen.
Hier nehme ich auch einmal den prozentualen Unterschied aus.
Ich will die Physik nicht überreden und sehe natürlich den Zusammenhang zwischen Objektivauflösung und Fotodiodengröße auf dem Sensor.
Aber... die Beugung und die Lieferung der "Beugungsscheiben" übernimmt in erster Linie das Objektiv. Der Sensor muss sich mit Lichtmenge, Rauschen und anderen Dingen rumschlagen.
Die Formel, die Du nennst liest sich gut aber so einfach ist es mMn nicht. Da sind z.B. die Werte für die Beugungsscheiben. Schon eine nicht runde
Blende bringt die Werte schon in andere Dimensionen und da sind die Korrekturen der Linsen noch nicht dabei.
Ich selbst sehe mich auch nicht in der Lage, die Details einer Objektivauslegung überhaupt einschätzen zu können. Noch kann ich die Beugungsscheibengröße einzelnen Objektiven zuordnen Auch kann ich nicht auswerten welche Helligkeits - Farbunterschiede der Sensor differenzieren kann.
Ich kann mich nur am Ergebnis orientieren und das machen auch die Testlabors.
Mit den Objektiven und deren besten Werten stimme ich dir zu.
Wenn ich Lichtstärke eines Objektivs ins Spiel bringe, dann betrifft das grundsätzlich das gleiche Thema aber das hat auch nichts mit der Pixelanzahl zu tun sondern nur mit der Möglichkeit Lichtmenge zu verarbeiten.
Die Belichtungszeit hat natürlich auch einen Einfluss auf die Lichtmenge die der Sensor verarbeiten muss. Auch hier gilt die Möglichkeit die Lichtmenge zu verarbeiten muss gegeben sein. Ich kann mir vorstellen, dass hier der neue Sensor wahrscheinlich besser ist. Messen kann ich es nicht.
Mir fehlt der Zusammenhang dass mehr Pixel auf gleicher Fläche unbedingt zu einer Verschlechterung führen muss. Kürzere Signalwege mit besserer Impedanzgenauigkeit, Signalabschirmung und besserer Signalaufbereitung kann auch die Ergebnisse für den Sensor mit mehr Pixel verbessern.
Sicher wären solche Maßnahmen auch dann für einen kleineren Sensor besser.
Verstanden habe ich noch nicht wieso das Thema förderlicher und kritischer
Blende für mFT überhaupt ein Problem sein sollte. Dieses Thema sollte sich doch mehr auf die ganz kleinen Sensoren auswirken.
Die Problematik bleibt doch auch bei 16 MP und 20MP gleich. Das Objektiv, das bei
Blende 8 wegen der Beugung unschärfer wird, sollte bei beiden Sensorgrößen wirken.
Unterschiede zwischen den Objektiven kommen mit der GX8 für mich etwas deutlicher zum Vorschein. Das liegt wahrscheinlich daran, dass nicht alle meine Objektive gleich gut auflösen.
Wenn ich mit meiner Argumentation falsch liegen sollte - ich lerne gerne dazu!
LG
Dieter