Moin zusammen,
ich verstehe es einerseits, und dann doch wieder nicht.
Ich habe meinen Monitor, einen Eizo CS270, bei Pixelcomputer gekauft. Die liefern ein paar
Tutorial-Videos mit, die ich sehr gut finde. Danach legt man sich mehrere Targets zum Kalibrieren
an, z.B. ungefähr so:
Für Druck nativen Gamut (ist 99% AdobeRGB), Weißpunkt zwischen 5.600 und 5.800K (für Offsetdruck
eher etwas niedriger, für Tintenstrahldruck eher etwas höher, Helligkeit 120 cd, Schwarz ganz unten.
Für Web / TV / Beamer mit reduziertem Gamut sRGB, Weißpunkt 6.500K, Helligkeit oberhalb 160 cd.
Und so weiter, die Philosophie ist, dass die Kalibration des Monitors schon eine Simulation des Zielmediums
darstellt, nicht punktgenau, dafür sind ja dann die Ausgabeprofile da, aber in der generellen Richtung.
Hört sich gut an, scheint auch zu funktionieren, aber mein vorheriges Verständnis (in der Theorie, ich hatte
vorher keinen ordentlichen Monitor und Messgerät) war etwa wie folgt:
Ich hatte Monitorkalibration als etwas ausgabeunabhängiges gesehen. Wenn ich z.B. eine definierte Quelle habe,
sagen wir einen ColorChecker, dann hat diese Quelle feststehende Farbwerte in Lab. Der Monitor sollte so kalibriert
sein, dass ich diese Lab-Werte sehe, also objektiv die Eigenschaft der Quelle. Bei einem realen Foto weiß ich dann,
was die Kamera tatsächlich aus der realen Szene gespeichert hat und kann es bearbeiten, bis es dem entspricht, was
ich gesehen habe, oder bis die ins Bild gehaltene Graukarte z.B. in RGB 128,128,128 hat.
Wie das Ganze dann in der Ausgabe aussieht, spielt so lange keine Rolle, bis ich mit einem Ausgabeprofil z.B. eines
Druckers softproofe und bei Gefallen mit diesem Zielprofil drucke.
Jetzt ist die Frage: was ist an meinem alten Verständnis falsch? Oder ist da vielleicht gar kein Widerspruch zwischen
dem, was ich dachte und dem, was ich jetzt nach der ganz oben genannten Anleitung mache?
Danke für Aufhellung und Gruß
Peter