Hallo gremlin,
Nur zur Sicherheit nochmal: Ich hab per se eigentlich nicht mal was gegen Downsampling, wenn
a) der Algorithmus qualitativ paßt (da macht der Distiller eh schon keine so gute Figur)
b) wenn das Downsampling richtig angewendet wird und nicht in Situationen zum Einsatz gebracht wird, wo dabei die Bilder schlichtweg nur kaputtgerechnet werden können (das trifft wohl für nahezu alle im Umlauf befindlichen Joboptions zu, an denen nicht im Nachhinein wieder Korrekturen vorgenommen wurden).
Für letzeres Problem ist eben der Downsample Treshold (Schwellwert) zuständig. Beträgt der bspw. 1,5 (also Downsampling auf 300 dpi für Bilder mit einer Auflösung von 450 dpi oder höher), so muß der Bildneuberechnungsalgorithmus im Extremfall aus einer Zelle von 3x3 Pixeln anschl. 2x2 rechnen. Das geht nicht ohne daß das Ganze unscharf wird (wo sollen die Bildinformationen dazwischen denn herkommen?) oder Abrisse entstehen -- in der Praxis hat man meist eine spaßige Kombination aus beidem --> das Bild ist mehr oder weniger kaputt (fällt natürlich nicht in homogenen Flächen auf aber sehr stark an Konturen)
Erst ab einem DownsampleTreshold von 2 oder höher stehen ausreichend Pixel für das Downsampling zur Verfügung, um keinerlei Informationen aus dem nichts hinzuinterpolieren zu müssen. Wenn ich aus einer Zelle von 4x4 oder 5x5 Pixeln eine neue mit 2x2 Pixeln errechnen muß, dann geht das ohne visuelle Fehler (wobei der Distiller meiner Meinung auch da noch patzt, verglichen zu anderen im Workflow einsetzbaren Downsampling-Möglichkeiten, bspw. Helios' ImageServer)
Und das ist der andere Punkt, der vielleicht untergegangen ist. Eine Abweichung von einem (Pseudo-)Standard zu begründen, setzt voraus, die dahinterliegende Problematik zu verstehen. Um sich also über "allgemein empfohlene" Distiller-Settings hinwegzusetzen, gehört ausreichend Fachwissen und dito Standfestigkeit, diese Abweichungen gegenüber anderen zu vertreten (gerade in D, wo ein gewisses Maß an Autoritätshörigkeit ja immer noch in den Köpfen herumspukt)
Mir geht es darum, daß Settings, die von anerkannten Gremien im Sinne der Produktions- und Qualitätssicherheit an die Öffentlichkeit gegeben werden, es von vorneherein gar nicht erst nötig machen, sich gleich wieder partiell darüberhinwegzusetzen, weil die Settings einfach vom Start weg passen sollten. Wenn dann der Operator was ändert, macht er es hoffentlich auf der Basis von ausreichend Fachwissen. Aber daß im Prinzip alle im Umlauf befindlichen Joboptions oder Kochrezepte (siehe auch die Downloads unter
http://www.pdfx3.org/ oder impressed.de) mit aktiviertem Downsampling und einem DownsampleTreshold von 1,5 oder gar noch weniger wie im Falle von pdfxready.ch oder aktuelle Jaeggi-Joboptions in punkto "Abbildungen schreddern" eine potentielle Gefahrenquelle darstellen und daher erstmal eine Korrektur erfordern, ist doch... äh... komisch?
Nochmal zur Verdeutlichung: Ein Downsample Treshold von 1,33 bei einer Downsample-Zielauflösung von bspw. 300 dpi bedeutet, daß Bilddaten mit einer
effektiven Auflösung von 400 oder mehr dpi auf 300 dpi kaputtgerechnet werden. Platziert man Bilder mit 300 dpi Auflösung in 100% im Layoutprogramm, tappt man natürlich nicht in diese Falle. Wagt man es aber die Bilder bspw. auf 74% skaliert einzubauen, schnappt die Falle zu und das Bild wird vom Distiller geschreddert. Und das alles ohne daß sich ein Operator der Gefahr überhaupt bewußt ist...
Und nach meinem Gespräch mit dem Vorstufenleiter einer der größten Druckereien in D kam es mir so vor, als ob das ein branchenweit existentes Problem ist, dem dann mit teils kruden manuellen Workarounds begegnet wird (Offene Dateien anfordern, Bild in Photoshop bikubisch auf Zielauflösung interpolieren und dann mit 100% einbauen -- etwas, das durch simples Deaktivieren des Downsampling bzw. Hochsetzen des DownsampleTreshold bei der initialen PDF-Erstellung zu 100% vermeidbar gewesen wäre)
Wobei bei
Halbtonabbildungen mit Strichauflösung die visuelle Anmutung im späteren Druckerzeugnis dann wohl dem RIP überantwortet wird ("Downsampling" im RIP beim Übertragen der Objekte in die Displaylist, Funktionsweise des Renderers und gewähltes Rastersystem). Keine Ahnung, wie das bei modernen PDF-RIPs ist, aber Tests von vor über einer Dekade mit Heidelberg-Technik ergaben bei der Kombination RIP 50 + HQS-Raster visuell keinen Unterschied zwischen Halbtonabbildungen mit 300 und 1200 dpi, wohl aber beim daneben stehenden Delta-RIP mit IS-Rasterung (dort wurden die feineren Strukturen bis zum Rasterizer hinübergerettet und führten zu entsprechend höher aufgelöster Ausgabe -- "Superzellenraster mit Rastersubzellen" oder irgendwie sowas ;-)
Aber wieder zurück zum eigentlichen Thema:
Wo/wie muß man ansetzen, um zu erreichen, daß branchenweit
* Downsampling per se erstmal in "allgemein empfohlenen" Distiller-Settings deaktiviert ist?
* der Downsample-Treshold auf einen ungefährlichen Wert von 2.0 oder höher angesetzt wird?
Meines Erachtens resultieren aus diesen suboptimalen Settings viele Probleme, die den allermeisten Anwendern (inkl. Vorstufenspezialisten auf Ausgabeseite) nicht mal bekannt sind, vermutlich weil sie im Normalfall nur in Grenzbereichen auftreten (Bilder verkleinert im Layout-Programm eingebaut --> Anstieg der effektiven Auflösung über den Schwellwert--> Distiller-Schwellwert-Falle schnappt zu und die Bilddaten landen im Downsampling-Schredder)
Gruss,
Thomas