[GastForen PrePress allgemein PDF in der Druckvorstufe Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

  • Suche
  • Hilfe
  • Lesezeichen
  • Benutzerliste
Themen
Beiträge
Moderatoren
Letzter Beitrag

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

13. Mai 2007, 15:36
Beitrag # 1 von 79
Bewertung:
(71086 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo allseits,

letzte Woche bei einem Neukundenbesuch wurde ich auf ein Problem hingewiesen, das angeblich damit etwas zu tun hätte, daß verkleinert eingebaute Bilder in XPress oder InDesign zu kaputt gerechneter Ausgabe (Proof, Belichter, etc.) führen würde und erst das manuelle Prüfen aller platzierter Bilder und eine in Photoshop (!) parallel durchgeführte Skalierung und Einbauen mit 100% in der Layout-Software das Problem lösen würde.

Klang für mich komisch, ließ sich dann aber recht schnell eingrenzen.

Hausintern wurden dort mit Joboptions von pdfx-ready.ch PDFs erzeugt (Empfehlung irgendeines Trainers, der dort intern eine Schulung veranstaltet hatte):

    http://www.pdfx-ready.ch/index.php?show=399

Ich vermutete aufgrund der Beschreibung ein Problem mit Downsampling und nach Blick in die Joboptions traf mich dann auch fast der Schlag:

Die "PDFX-ready-coatedSheet_Dist7.joboptions" bspw. enthalten sowas hier:

Code
  /DownsampleColorImages true 
/ColorImageDownsampleType /Bicubic
/ColorImageResolution 300
/ColorImageDownsampleThreshold 1.33000
/EncodeColorImages true
/ColorImageFilter /DCTEncode
/AutoFilterColorImages true
/ColorImageAutoFilterStrategy /JPEG


Der Distiller ist hinsichtlich Downsample-Qualität ja eh schon nicht sonderlich berühmt. Aber daß allen Ernstes ein DownsampleThreshold von 1.33 vorgegeben und branchenweit empfohlen wird, ist schon arg. Immerhin wird damit ein Bild mit einer effektiven Auflösung von 401 dpi gnadenlos auf 300 dpi kaputtgerechnet (Aus 4 Pixeln 3 zu machen, kann nicht gut gehen!). Anhand dieser Einstellung war dann auch die Aussage bzgl. verkleinerter Platzierung im Layout-Programm klar. Bilder, deren eigentliche Auflösung bspw. 300 dpi betragen, überschreiten nach Skalierung auf bspw. 70% den kritischen Schwellwert von 400 (300 * 1,33) dpi und werden kaputtgerechnet.

Ich fand ja die Adobe-eigenen Standardvorgaben bzgl. DownsampleThreshold von 1.50000 schon immer reichlich gefährlich (weil alles unterhalb 2 nur zu Katastrophen führen kann, wenn Downsampling aktiviert wird) aber den Schwellwert dann auf 1.33 zu verringern und solche Joboptions allgemein zum Download anzubieten, ist dann wirklich ein starkes Stück.

Da mir nach Rücksprache mit einer der betreuenden Lithos (Vorstufe von einer der größten Druckereien in D) versichert wurde, daß das mit dem "skalierten Einbauen" von Bildern ein allgemeines Problem sei (sprich anscheinend branchenweit bzw. überall PDFs mit derlei hinsichtlich Downsamplung extrem gefährlichen Joboptions erzeugt werden), wollte ich jetzt mal hier nachfragen, weil ich nach wie vor kaum glauben kann, daß diese Problematik nicht allgemein bekannt ist?

Bei mir kommen jedenfalls grundsätzlich keine Joboptions zum Einsatz, bei denen der DownsampleTreshold nicht auf mindestens 2.0 gesetzt ist (dito mit dem ImageMemory-Parameter, der sich zwar nicht qualitativ aber teils recht drastisch von der Performance herr auswirkt).

Wie seht Ihr das so? Ach ja, und falls das in der Vergangenheit schon Thema gewesen sein sollte, bitte auf passende Threads hinweisen. Hab bei Vorrecherche per Google jedenfalls nichts Erhellendes finden können...

Gruss,

Thomas
X

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Richard
Beiträge gesamt: 19334

14. Mai 2007, 00:07
Beitrag # 2 von 79
Beitrag ID: #291304
Bewertung:
(70949 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo Thomas,

bei mir ist downsampling bis auf absolute Bandbreiten-Notsituationen immer aus.
Nicht nur das die Bilder bescheiden berechnet werden, auch Freisteller bekommen weiße Ränder, da scheinbar ausserhalb des Freistellers nicht Bildpixel sondern weiße Pixel in die Interpolation einfliessen.

Dann schon lieber die JPEG Qualität herabsetzen (die ja leider beim Distiller auch nicht 1:1 denen der Tiff, JPEG oder EPS Sicherung in PS entspricht, als Auflösung herunterzurechnen.

Und bei der Wahl des Schwellwertes kann ich mir vorstellen, dass da der Blick auf die Dateigrößen zu dominierend war, 1,41 ist Datenhalbierung (Siehe DIN A Reihe), also ist 1,33 immerhin schon fast eine Datenhalbierung.


als Antwort auf: [#291266]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

gremlin
Beiträge gesamt: 3586

14. Mai 2007, 07:21
Beitrag # 3 von 79
Beitrag ID: #291308
Bewertung:
(70935 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
hallo zusammen

dieser punkt in den pdfx-ready-joboptions gefällt mir auch nicht. ich lasse die bildneuberechnung ebenfalls aus, solange die datenübermittlung es nicht erfordert. ich begründe das noch ganz oberflächlicher: sind halbtonbilder mit strichbildcharakter enthalten, die ganz bewusst eine höhere bildauflösung haben, werden diese wunderbar kaputt gerechnet.

gerade im zusammenhang mit der transparenzreduzierung von xpress 7.x (transparente eps/pdf werden in halbtonbilder gewandelt) sollte meiner meinung nach dem bilddownsampling unbedingt neue aufmerksamkeit geschenkt werden und nochmal überdacht werden (gell, georg... ;-)).


als Antwort auf: [#291304]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 09:39
Beitrag # 4 von 79
Beitrag ID: #291326
Bewertung:
(70910 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

Antwort auf [ Thomas Richard ] bei mir ist downsampling bis auf absolute Bandbreiten-Notsituationen immer aus.


Also ich setze in manchen Workflows durchaus Downsampling ein, aber

a) mit qualitativ passendem Bildneuberechnungsalgorithmus (da fällt der Distiller eh schon mal heraus, bei ID CS2 leider Helios dito, weil ein passender OPI-Kommentar fehlt, der zur Ermittlung der effektiven Auflösung praktisch wäre -- siehe http://www.helios.de/support/ti.phtml?108)

b) wenn sichergestellt ist, daß der Schwellwert, ab dem Bilder auf die Zielauflösung heruntergerechnet werden, immer mindestens das doppelte der endgültigen Auflösung beträgt, da andernfalls das Ergebnis nur bescheiden sein kann.

Antwort auf: Und bei der Wahl des Schwellwertes kann ich mir vorstellen, dass da der Blick auf die Dateigrößen zu dominierend war, 1,41 ist Datenhalbierung (Siehe DIN A Reihe), also ist 1,33 immerhin schon fast eine Datenhalbierung.


"...neuntelung" wolltest Du wahrscheinlich schreiben? Egal, das Prekäre ist doch, daß ein Schwellwert unterhalb zwei dazu führt, daß jeder Bildneuberechnungsalgorithmus Unschärfe bzw. im Falle von Distiller sogar Abrisse ins Bild rechnet. Erst ab einem Schwellwert von über 2 kann davon ausgegangen werden, daß dem Downsampling-Algorithmus ausreichend Pixel (mindestens 4) zur Verfügung stehen, um ohne visuell sichtbare Fehler ein neues Pixel zu berechnen (siehe auch Antialiasing-Effekt).

Wenn "allgemein empfohlene" Joboptions, die sich der Qualitäts- oder Produktionssicherheit verschrieben haben, diesem Umstand keine Rechnung tragen und viel auf Transferkurven, Farbkram, Output-Intent, dies&das&sonstnochwas herumreiten aber die elementare Frage Bildqualität nicht nur nicht berücksichtigen sondern schlichtweg karikieren, dann kann man doch von der Verwendung solcher Joboptions doch eigentlich nur global abraten?

Im Prinzip müsste doch -- immer den Laien im Hinterkopf habend, der sich schon durch Einsatz von "semioffiziellen" Settings Sicherheit erhofft -- bei allen Distiller-Settings, die irgendwas mit Druckproduktion oder Qualität zu tun haben, Downsampling komplett deaktiviert sein und parallel die hinterlegten Werte, falls man es doch aktiviert, zu keiner Kaputtrechnung der im PDF enthaltenen Bilder führen (Strichbilder auf 1200 dpi downsamplen -- geht's noch? Auch heute schwirren noch CopyDot-Scans mit 2400 oder 2540 dpi herum, die auf die Art und Weise prima zur Makulatur bzw. zum Regreßfall werden).

Also ich war ernsthaft verblüfft, als ich in die Joboptions geschaut habe... Daß die Defaults von Adobe nichts taugen, kann ja als bekannt angesehen werden. Aber daß Initiativen, die sich einer allgemeinen Verbesserung der Situation verschrieben haben, solche Faux Pas verteilen, hätte ich mir irgendwie vorher nicht vorstellen können.

Gruss,

Thomas


als Antwort auf: [#291304]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

rohrfrei
Beiträge gesamt: 4492

14. Mai 2007, 10:54
Beitrag # 5 von 79
Beitrag ID: #291347
Bewertung:
(70882 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

können wir mal die Kirche im Dorf lassen? Oder mal ein paar Beispiele sehen, wo sich das Downsampling soooooooo negativ auf die Qualität auswirkt? Gerne mal als Vergleich zwischen mit und ohne Downsampling.

Über copydot-Daten brauchen wir nicht zu diskutieren, da ist die Situation klar und ein Downsampling verbietet sich. Aber ist es bei den ganz "normalen" Akzidenzen wirklich so ein Riesenproblem? Wenn ja, was soll ich dann im Layout machen? Verbietet sich dann auch ein Verkleinern von Bildern auf 70%? Ich glaube, das würde wohl niemand ernsthaft einfordern.

Man kann sich das Problem bewußt machen und auch darüber diskutieren, völlig klar. Aber ist das praxisgerecht? Dann wundert mich vielmehr die Zielauflösung von 300 dpi bei den PDF-Ready-joboptions im Zeitalter von 70er und 80er Raster. Das halte ich für diskussionswürdiger...

Gruß


als Antwort auf: [#291326]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 11:07
Beitrag # 6 von 79
Beitrag ID: #291352
Bewertung:
(70878 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo gremlin,

Antwort auf [ gremlin ] ich lasse die bildneuberechnung ebenfalls aus, solange die datenübermittlung es nicht erfordert.


Nur zur Sicherheit nochmal: Ich hab per se eigentlich nicht mal was gegen Downsampling, wenn

a) der Algorithmus qualitativ paßt (da macht der Distiller eh schon keine so gute Figur)

b) wenn das Downsampling richtig angewendet wird und nicht in Situationen zum Einsatz gebracht wird, wo dabei die Bilder schlichtweg nur kaputtgerechnet werden können (das trifft wohl für nahezu alle im Umlauf befindlichen Joboptions zu, an denen nicht im Nachhinein wieder Korrekturen vorgenommen wurden).

Für letzeres Problem ist eben der Downsample Treshold (Schwellwert) zuständig. Beträgt der bspw. 1,5 (also Downsampling auf 300 dpi für Bilder mit einer Auflösung von 450 dpi oder höher), so muß der Bildneuberechnungsalgorithmus im Extremfall aus einer Zelle von 3x3 Pixeln anschl. 2x2 rechnen. Das geht nicht ohne daß das Ganze unscharf wird (wo sollen die Bildinformationen dazwischen denn herkommen?) oder Abrisse entstehen -- in der Praxis hat man meist eine spaßige Kombination aus beidem --> das Bild ist mehr oder weniger kaputt (fällt natürlich nicht in homogenen Flächen auf aber sehr stark an Konturen)

Erst ab einem DownsampleTreshold von 2 oder höher stehen ausreichend Pixel für das Downsampling zur Verfügung, um keinerlei Informationen aus dem nichts hinzuinterpolieren zu müssen. Wenn ich aus einer Zelle von 4x4 oder 5x5 Pixeln eine neue mit 2x2 Pixeln errechnen muß, dann geht das ohne visuelle Fehler (wobei der Distiller meiner Meinung auch da noch patzt, verglichen zu anderen im Workflow einsetzbaren Downsampling-Möglichkeiten, bspw. Helios' ImageServer)

Antwort auf: ich begründe das noch ganz oberflächlicher


Und das ist der andere Punkt, der vielleicht untergegangen ist. Eine Abweichung von einem (Pseudo-)Standard zu begründen, setzt voraus, die dahinterliegende Problematik zu verstehen. Um sich also über "allgemein empfohlene" Distiller-Settings hinwegzusetzen, gehört ausreichend Fachwissen und dito Standfestigkeit, diese Abweichungen gegenüber anderen zu vertreten (gerade in D, wo ein gewisses Maß an Autoritätshörigkeit ja immer noch in den Köpfen herumspukt)

Mir geht es darum, daß Settings, die von anerkannten Gremien im Sinne der Produktions- und Qualitätssicherheit an die Öffentlichkeit gegeben werden, es von vorneherein gar nicht erst nötig machen, sich gleich wieder partiell darüberhinwegzusetzen, weil die Settings einfach vom Start weg passen sollten. Wenn dann der Operator was ändert, macht er es hoffentlich auf der Basis von ausreichend Fachwissen. Aber daß im Prinzip alle im Umlauf befindlichen Joboptions oder Kochrezepte (siehe auch die Downloads unter http://www.pdfx3.org/ oder impressed.de) mit aktiviertem Downsampling und einem DownsampleTreshold von 1,5 oder gar noch weniger wie im Falle von pdfxready.ch oder aktuelle Jaeggi-Joboptions in punkto "Abbildungen schreddern" eine potentielle Gefahrenquelle darstellen und daher erstmal eine Korrektur erfordern, ist doch... äh... komisch?

Nochmal zur Verdeutlichung: Ein Downsample Treshold von 1,33 bei einer Downsample-Zielauflösung von bspw. 300 dpi bedeutet, daß Bilddaten mit einer effektiven Auflösung von 400 oder mehr dpi auf 300 dpi kaputtgerechnet werden. Platziert man Bilder mit 300 dpi Auflösung in 100% im Layoutprogramm, tappt man natürlich nicht in diese Falle. Wagt man es aber die Bilder bspw. auf 74% skaliert einzubauen, schnappt die Falle zu und das Bild wird vom Distiller geschreddert. Und das alles ohne daß sich ein Operator der Gefahr überhaupt bewußt ist...

Und nach meinem Gespräch mit dem Vorstufenleiter einer der größten Druckereien in D kam es mir so vor, als ob das ein branchenweit existentes Problem ist, dem dann mit teils kruden manuellen Workarounds begegnet wird (Offene Dateien anfordern, Bild in Photoshop bikubisch auf Zielauflösung interpolieren und dann mit 100% einbauen -- etwas, das durch simples Deaktivieren des Downsampling bzw. Hochsetzen des DownsampleTreshold bei der initialen PDF-Erstellung zu 100% vermeidbar gewesen wäre)

Antwort auf: sind halbtonbilder mit strichbildcharakter enthalten, die ganz bewusst eine höhere bildauflösung haben, werden diese wunderbar kaputt gerechnet.


Wobei bei Halbtonabbildungen mit Strichauflösung die visuelle Anmutung im späteren Druckerzeugnis dann wohl dem RIP überantwortet wird ("Downsampling" im RIP beim Übertragen der Objekte in die Displaylist, Funktionsweise des Renderers und gewähltes Rastersystem). Keine Ahnung, wie das bei modernen PDF-RIPs ist, aber Tests von vor über einer Dekade mit Heidelberg-Technik ergaben bei der Kombination RIP 50 + HQS-Raster visuell keinen Unterschied zwischen Halbtonabbildungen mit 300 und 1200 dpi, wohl aber beim daneben stehenden Delta-RIP mit IS-Rasterung (dort wurden die feineren Strukturen bis zum Rasterizer hinübergerettet und führten zu entsprechend höher aufgelöster Ausgabe -- "Superzellenraster mit Rastersubzellen" oder irgendwie sowas ;-)

Aber wieder zurück zum eigentlichen Thema:

Wo/wie muß man ansetzen, um zu erreichen, daß branchenweit

* Downsampling per se erstmal in "allgemein empfohlenen" Distiller-Settings deaktiviert ist?

* der Downsample-Treshold auf einen ungefährlichen Wert von 2.0 oder höher angesetzt wird?

Meines Erachtens resultieren aus diesen suboptimalen Settings viele Probleme, die den allermeisten Anwendern (inkl. Vorstufenspezialisten auf Ausgabeseite) nicht mal bekannt sind, vermutlich weil sie im Normalfall nur in Grenzbereichen auftreten (Bilder verkleinert im Layout-Programm eingebaut --> Anstieg der effektiven Auflösung über den Schwellwert--> Distiller-Schwellwert-Falle schnappt zu und die Bilddaten landen im Downsampling-Schredder)

Gruss,

Thomas


als Antwort auf: [#291308]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 11:57
Beitrag # 7 von 79
Beitrag ID: #291383
Bewertung:
(70862 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

Antwort auf [ rohrfrei ] können wir mal die Kirche im Dorf lassen? Oder mal ein paar Beispiele sehen, wo sich das Downsampling soooooooo negativ auf die Qualität auswirkt? Gerne mal als Vergleich zwischen mit und ohne Downsampling.


    http://kaiser-edv.de/...sample-Schredder.zip (3 MByte)

Archiv enthält Joboptions, PDF-Dateien und dazu passende Prüfreporte -- mal mit original pdfxready.ch-Einstellungen, mal mit korrigierten:

    Unkorrigierte Settings.pdf
    Unkorrigierte Settings_report.txt
    PDFX-ready-coatedSheet_Dist7.joboptions

    Korrigierte Settings.pdf
    Korrigierte Settings_report.txt
    PDFX-ready-coatedSheet_Dist7_repaired.joboptions

An obigen Dateien sieht man schön den Effekt, daß Bilder von ca. 428 dpi auf 300 dpi kaputtgerechnet werden, sobald deren effektive Auflösung den Schwellwert von ca. 400 dpi (bei DownsampleTreshold von 1,33) überschreitet.

Zur Beurteilung der Bildqualität am Besten per Touchup-Werkzeug das jeweils unterste platzierte Bild extrahieren und in Bildverarbeitung ansehen, um Antialiasing-Einflüsse von Acrobat auszuschließen.

Antwort auf: Über copydot-Daten brauchen wir nicht zu diskutieren, da ist die Situation klar und ein Downsampling verbietet sich.


Sagst Du das bitte Stephan Jaeggi? Der hat in seinen aktuellen Joboptions Folgendes stehen:

Code
  /DownsampleMonoImages true 
/MonoImageDownsampleType /Bicubic
/MonoImageResolution 1200
/MonoImageDepth -1
/MonoImageDownsampleThreshold 1.50000


Bei den meisten anderen Stellen/Quellen findet man wenigstens 2400 dpi, was dann erst Strichscans ab 3600 dpi betrifft. BTW: Bei Strichabbildungen ist ein Herunterrechnen in jedem Fall katastrophal, selbst mit einem DownsampleTreshold von 2.0 oder mehr -- einfach mal selbst ausprobieren.

Antwort auf: Aber ist es bei den ganz "normalen" Akzidenzen wirklich so ein Riesenproblem?


Ja, natürlich. Es ist ein Problem, das sich aber nur bei gewissen Motiven wirklich bemerkbar macht. Einem bewölkten Himmel sieht man das Downsampling nicht an, wohingegen eine Produktabbildung mit scharfen, v.a. schrägen Konturen (Schubladen, Kanten, irgendwelche Details) definitiv das Downsampling nicht überlebt --> kaputtgerechnet.

Probier's einfach aus und lad Dir eine Abbildung mit klaren Konturen, die idealerweise in Winkeln um die 10° auftreten, in ein Layoutprogramm, skalier das Ganze so, daß Du über den Downsample-Schwellwert kommst (bei den "PDFX-ready-coatedSheet_Dist7.joboptions" in obigem Archiv reicht dafür der skalierte Einbau eines 300 dpi Bildes auf 74% --> 405 dpi effektive Auflösung). Und überzeug Dich einfach selbst.

Antwort auf: Wenn ja, was soll ich dann im Layout machen? Verbietet sich dann auch ein Verkleinern von Bildern auf 70%? Ich glaube, das würde wohl niemand ernsthaft einfordern.


Äh, die Lösung ist doch supersimpel. Kein Downsampling bzw. Anheben des DownsampleTreshold auf mindestens 2.0 -- dann hat der Distiller schon kaum mehr eine Chance, etwas wirklich kaputtzurechnen. Das ist doch das eigentliche Problem, nicht die Skalierung im Layout-Programm.

Ich glaube auch, daß genau dieser Zusammenhang (zwischen Downsample-Schwellwert, der anhand der effektiven Auflösung nach Platzierung im Layout zuschlägt, und reiner Bildauflösung --> 300 dpi Bildauflösung, 50% Skalierung --> 600 dpi effektive Auflösung) das ist, weshalb das Problem nicht erkannt wird bzw. regelmäßig an völlig anderer Stelle vermutet wird (Quark oder InDesign sind schuld, Helios ist schuld, das RIP ist schuld...)

Antwort auf: Man kann sich das Problem bewußt machen und auch darüber diskutieren, völlig klar. Aber ist das praxisgerecht?


Aber hallo... ich hätte das ja auch nicht vermutet, doch es scheint ein Riesenproblem zu sein, dessen Ursache aber so gut wie nicht bekannt ist und die aus der branchenweiten Verbreitung von in diesem Punkt allesamt suboptimalen Joboptions resultiert. Sprich, ein Problem das, schwer zu reproduzieren scheint (weil tritt "offensichtlich" nur bei manchen Abbildungen auf, deren effektive Auflösung sich eben im Grenzbereich bewegt) und dessen Ursache ganz woanders vermutet wird (denn die Joboptions stammen ja von anerkannten Experten und können gar nicht dafür verantwortlich sein).

Antwort auf: Dann wundert mich vielmehr die Zielauflösung von 300 dpi bei den PDF-Ready-joboptions im Zeitalter von 70er und 80er Raster. Das halte ich für diskussionswürdiger...


Ich nicht angesichts heute üblicher Rasterizer bei der Ausgabe. Der früher pessimistisch angesetzte Qualitätsfaktor von 2 (60er Raster und 300 dpi effektive Bildauflösung) wird halt beim 80er Raster dann nur zu 1,33. Das wirkt sich aber visuell weit weniger kraß aus, als wenn Bilddaten mit einer effektiven Auflösung von knapp über 400 dpi durch den Distiller auf 300 dpi kaputtgerechnet werden. Außer man kann Treppenstufen an Konturen einen ästhetischen Reiz abgewinnen. Dann ist natürlich alles in Ordnung ;-)

Gruss,

Thomas


als Antwort auf: [#291347]
(Dieser Beitrag wurde von Thomas Kaiser am 14. Mai 2007, 12:00 geändert)

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 13:59
Beitrag # 8 von 79
Beitrag ID: #291409
Bewertung:
(70833 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
So,

nachdem das Thema wohl niemand interessiert bzw. die Tragweite der Problematik nicht verstanden wird (darf ich mir wohl an die eigene Nase fassen bzgl. meiner Formulierkünste), mal ganz simpel zum Gucken:

Wir haben ein Ausgangsbild mit -- sagen wir 300 dpi --, das so aussieht:

    http://kaiser-edv.de/...ein_Downsampling.png

Dieses wird in InDesign oder Xpress mit 74% Skalierung platziert und das Ganze mit beliebigen heute gebräuchlichen und von ausgewiesenen Experten/Gremien empfohlenen Distiller-Settings nach PDF gewandelt. Da diese Joboptions einen DownSampleTreshold von 1,33 enthalten, wird das Bild einmal durch den Wolf gedreht und erscheint so im endgültigen PDF:

    http://kaiser-edv.de/..._kaputtgerechnet.png

Ist dieses Ergebnis das, was man von Distiller-Settings, die sich Produktions- und Qualitätssicherung auf die Fahne geschrieben haben, erwarten würde? Ja oder nein?

Einfach mal beide Bilder neben- oder untereinander im Browser betrachten und bei tieferem Interesse einfach die originalen CMYK-Varianten der Bilder bzw. das originäre EPS (hat 405 dpi, d.h. das zu Testzwecken einfach mit 100% platzieren und dann mit aktuellen Jaeggi- oder pdfxready.ch-Joboptions kaputtrechnen lassen) runterladen und selbst testen -- liegt alles hier:

    http://kaiser-edv.de/...ling-Verdeutlichung/

Pardon, aber wenn das nicht überdeutlich ist, was der Distiller mit heute gebräuchlichen Settings hinsichtlich Downsampling für Mist anstellt, dann wechsel ich die Branche und werd' Koch :-)

Gruss,

Thomas, in Form von http://kaiser-edv.de/...hop_Downsampling.png noch das Interpolationsergebnis, das man via Photoshop erhalten würde, beigelegt habend...


als Antwort auf: [#291383]
(Dieser Beitrag wurde von Thomas Kaiser am 14. Mai 2007, 14:02 geändert)

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

pkleinheider
Beiträge gesamt:

14. Mai 2007, 14:23
Beitrag # 9 von 79
Beitrag ID: #291414
Bewertung:
(70819 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo Rene,

oh ja - das Thema interessiert sehr. Habe mir ein Graustufenlogo senden lassen, dass nach dem Downsampeln von 800 auf 300 ppi sehr unscharf ist. Darüber hinaus habe ich eine Datei mit diversen schrägen schwarzen Linien, die nach dem Downsampeln von Distiller einen starken Sägezahneffekt haben.

Ich komme aktuell nur nicht dazu, diese Beispiele aufzubereiten.

Auch ich bin ein starker Verfechter von unangetasteter Bildauflösung - werde diese Beispiele den Kollegen der GWG und pdfxReady geben, damit diese Problematik auch dort Gehör findet.

Gru:sse

Peter


als Antwort auf: [#291409]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

rohrfrei
Beiträge gesamt: 4492

14. Mai 2007, 14:28
Beitrag # 10 von 79
Beitrag ID: #291415
Bewertung:
(70816 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

vielen Dank für die Beispieldaten. Und die sind super, um das Problem zu veranschaulichen. Aber ich bezweifle, daß diese praxisgerecht sind. Wenn solche regelmäßigen, geometrischen Figuren in einem Layout vorkommen, dann doch vorzugsweise als Vektorelemete, die vom Downsampling ausgeklammert sind. Natürlich kann mal eine schräge Linie im Bild vorkommen, aber das ist sicherlich kein k.o.-Kriterium. Im 4-farbigen Offset ist ja auch immer mehr als nur eine Farbkomponente beteiligt. Auch bei aufwändigen Produktabbildungen führt das doch nicht gleich zum Ausschuß.

Zitat Aber hallo... ich hätte das ja auch nicht vermutet, doch es scheint ein Riesenproblem zu sein, dessen Ursache aber so gut wie nicht bekannt ist und die aus der branchenweiten Verbreitung von in diesem Punkt allesamt suboptimalen Joboptions resultiert. Sprich, ein Problem das, schwer zu reproduzieren scheint (weil tritt "offensichtlich" nur bei manchen Abbildungen auf, deren effektive Auflösung sich eben im Grenzbereich bewegt) und dessen Ursache ganz woanders vermutet wird (denn die Joboptions stammen ja von anerkannten Experten und können gar nicht dafür verantwortlich sein).


Bei allem notwendigen Respekt, aber ich teile Ihre Meinung hier überhaupt nicht. Zum Einen sehe ich es - nach wie vor - nicht als "Riesenproblem" an zum Anderen glaube ich nicht, daß das völlig neu ist. So "dumm" ist die Branche nicht. Ich denke eher, das die Qualität so akzeptiert wird. Warum auch nicht? Im "Normalfall" werden die Störungen kaum auffallen. Das Beispiel mit der "großen Druckerei" würde ich als höchst fragwürdig bewerten. Ich kenne auch so eine "große Druckerei". Deren Arbeitsweise möchte ich lieber nicht kommentieren! Das hat für mich keinerlei Stellenwert.

Zitat Sagst Du das bitte Stephan Jaeggi? Der hat in seinen aktuellen Joboptions Folgendes stehen:

Zur Ehrenrettung von Herrn Jaeggi (den ich sehr schätze) sei angemerkt, daß er diesen Umstand in seinen Seminaren deutlich betont, also nicht klammheimlich einbaut. Auch auf die JPEG-Komprimierung weist er ausdrücklich hin und begründet es auch, warum er es verwendet.

Auf der anderen Seite ist doch der Anwender auch selbst gefragt. Also da bin ich ganz eindeutig der Meinung, daß ich wissen muß, wenn ich copydot-Daten verarbeite. Demzufolge ist dann die weitere Vorgehensweise zu wählen. Auch wenn Layouter und PDF-Ersteller getrennt voneinander arbeiten, dann müssen sie sich hierüber kurzschließen, ist doch klar. Herr Jaeggi kann ja nicht jeden Individualfall berücksichtigen. Für den Flexodruck gelten dann noch wieder andere Parameter...

Also ich handhabe das für unsere Kundendaten so, daß ich deren angelieferten Daten auch nicht mehr downsample im Workflow. Die bleiben so, wie sie sind, damit mir keiner in die Karre fahren kann. So kommt es aber auch schon mal vor, daß ein Halbtonbild mit über 1400 dpi im PDF landet weil es im Layout verkleinert wurde. Das ist sicherlich auch nicht optimal für die Qualität, denn das muß ja auch wieder interpoliert werden, halt nur in die andere Richtung. Das kann bei Stoffmustern dann auch zu Störungen führen.

Zitat Außer man kann Treppenstufen an Konturen einen ästhetischen Reiz abgewinnen. Dann ist natürlich alles in Ordnung ;-)

Ich bitte nach wie vor um Praxisbeispiele. Klassisches Beispiel: Autoinnenansicht mit Tachoskalierung. Gerade heute wieder gedruckt. PDF angeliefert vom Kunden. Wimmelt nur so von unterschiedlich gewinkelten Linien im Tacho. Aber überhaupt kein Problem. Die Arbeitsweise des Distillers ist sicherlich nicht optimal - völlig klar - aber es ist kein "Riesenproblem" in der Praxis. Eigentlich reicht ein prüfender Blick im PDF auch aus, um das beurteilen zu können (Moirées jetzt mal ausgenommen). Ich würde das daher nicht so sehr dramatisieren wollen.

Gruß


als Antwort auf: [#291383]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 14:40
Beitrag # 11 von 79
Beitrag ID: #291418
Bewertung:
(70803 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo Peter,

Antwort auf [ pkleinheider ] Auch ich bin ein starker Verfechter von unangetasteter Bildauflösung


Auch auf die Gefahr hin, durch stete Wiederholung langsam extrem zu nerven oder zu langweilgen... Wenn man einen DownsampleTreshold größer/gleich 2 wählt... dann klappt's auch wieder mit dem Distiller, da der dann auf einmal auch wieder in einen sauberen Interpolationsmodus verfällt -- siehe bspw.

    http://kaiser-edv.de/...reshold_gleich_2.png

(Schräge Linien sind schräge Linien und keine Treppen, Gittermuster sind Gittermuster anstatt Matsch, etc.)

Sobald der Distiller für die Berechnung von einem Pixel mindestens 4 (2x2) zur Verfügung stehen hat, rechnet er keine totale Grütze mehr sondern halbwegs passabel (abgesehen von einer für die eigentliche Ausgabegröße passenden Unscharfmaskierung, die natürlich unterbleibt).

D.h. wirklich kriminell in punkto Downsample-Qualität sind nur Schwellwerte zwischen 1.0 und 2.0, da hier -- unabhängig von im Distiller gewählten Downsampling-Algorithmus -- keine echte bikubische Interpolation sondern ein Mischding zwischen Pixelauslassung und bikubischer Interpolation zum Zug kommt --> Treppenstufen und Unschärfe olé.

Antwort auf: werde diese Beispiele den Kollegen der GWG und pdfxReady geben, damit diese Problematik auch dort Gehör findet.


Das wäre sehr wichtig, denn

* die Problematik scheint branchenweit verbreitet zu sein (war mir vorher nicht klar -- bei den von mir in punkto PDF-Erstellung betreuten Kunden gibt es grundsätzlich modifizierte Joboptions, d.h. DownsampleTreshold als auch ImageMemory-Paramter auf praxistaugliche Werte hochgeschraubt)

* sie wird überhaupt nicht mit Distiller-Settings in Verbindung gebracht

* sie führt zu kruden Workarounds (manuelles Umspeichern in Photoshop und erneutes Platzieren mit 100% im Layout-Programm -- derweil würde es ein DownsampleTreshold von 2.00 oder Deaktivierung des Downsampling schon richten)

* das Ganze betrifft gerade Anwender, die eben nicht tief in der Thematik stecken und sich deshalb in gutem Glauben auf die von den entsprechenden Gremien/Experten herausgegebenen Joboptions verlassen (können müssen!)

Gerade das Letzte darf nicht vergessen werden -- Profis stellen das Downsampling sofort ab. Anwender mit normalem Halbwissen fassen die Einstellungen nicht an und produzieren damit unter gewissen Bedingungen vollautomatisch Makulatur, an der nur die Papierhersteller ihre Freude haben...

Und das Ganze zählt natürlich noch zu den Fehlerquellen, denen man mit formalisierter PDF-Prüfung nicht auf die Pelle rücken kann...

Gruss,

Thomas


als Antwort auf: [#291414]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 14:52
Beitrag # 12 von 79
Beitrag ID: #291424
Bewertung:
(70788 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

Antwort auf [ rohrfrei ] Ich bitte nach wie vor um Praxisbeispiele.


Äh, reicht das denn immer noch nicht? Es ist doch superdeutlich, daß der Distiller bei den in den in der Branche verteilten Joboptions (überall DownsampleTreshold zwischen 1.00 und 2.00, je niedriger desto höher die Gefahr für das Auftreten der Situation) mit einem Müll-Algorithmus Bilder herunter- bzw. kaputtrechnet und daß davon nicht nur geometrische Figuren sondern stinknormale Produktabbildungen betroffen sind, die klare Konturen aufweisen. Je stärker unscharfmaskiert, desto drastischer.

Meine einzige Forderung ist doch nach wie vor: Gebt dem Distiller eine Chance, es richtig zu machen... und das heißt: DownsampleTreshold auf 2 und fertig. Denn erst ab diesem Schwellenwert werden Produktabbildungen nicht mehr durch den Schredder gejagt und kaputtgerechnet.

Direkte Folge:

* Abbildungen, die viel zu stark skaliert waren, werden auf passende dpi-Werte heruntergerechnet

* Aber diesmal ohne daß sie kaputtgerechnet wurden

Genau diesen Anspruch müssen doch Distiller-Settings haben, die in der Branche mit dem Stichwort Qualitätssicherung verteilt werden?

Bzgl. Deinem Tacho-Beispiel wäre ja erstmal zu klären, ob da überhaupt Downsampling im Spiel war und welcher Skalierungsfaktor im konkreten Fall zum Einsatz kam. Wenn der Distiller die Auflösung auf 50% oder noch weniger heruntergerechnet hat, dann paßt ja wieder alles.

Das Problem an der Chose ist doch eben der Grenzbereich zwischen 50% und 100% Auflösungsreduzierung (der direkt mit dem DownsampleTreshold im Bereich zwischen 1 und 2 korrespondiert).

Wenn man nicht Tests in genau diesem Grenzbereich fährt, erkennt man das Problem schlichtweg nicht. Aber um genau diesen Grenzbereich geht es... und den umschifft man sehr elegant durch branchenweiten Einsatz von DownsampleTreshold größer/gleich 2. Und nein, ich bin weiterhin nicht der Meinung, daß diese Korrektur von Joboptions dem individuellen Wissensstand jedes einzelnen PDF-Erzeugers anzulasten ist -- das gehört in die in der Branche als Standard empfohlenen Joboptions schlichtweg schon vorneherein korrekt hinein. :-)

Mehr sog I ned ;-)

Thomas


als Antwort auf: [#291415]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 15:29
Beitrag # 13 von 79
Beitrag ID: #291437
Bewertung:
(70776 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo nochmal,

da ich weiterhin glaube, daß wir aneinander vorbeischreiben bzw. ich die eigentliche Problematik wohl noch immer nicht klar genug ausgebreitet habe, ein letzter Versuch:

1) Downsampling im Distiller ist nicht per se schlecht

2) Problematisch wird es aber, wenn der Distiller die effektive Auflösung von Bildobjekten auf eine Zielauflösung reduziert, die im Bereich von 50,x% - 100% der Originalauflösung liegt. Technischer Hintergrund: In diesem Bereich verwendet der Distiller einen suboptimalen Algorithmus, der zu Treppenstufen und ähnlichen Artefakten führt. Ist die Reduktion der Auflösung aber exakt 50% oder kleiner so interpoliert der Distiller halbwegs passabel und das visuelle Ergebnis ist gut

3) Die Einstellung DownsampleTreshold in Distiller-Settings hat einen indirekten Einfluß auf Punkt 2) insofern als in Abhängigkeit vom Downsample-Schwellwert und der effektiven Bildauflösung (also eigentliche Bildauflösung geteilt durch Skalierungsmaßstab im Layoutprogramm) ggf. eine Reduktion der Bildauflösung im gefährlichen Bereich zwischen 50,x% und 100% geschieht, die dann zu einem visuell unbefriedigendem Ergebnis führt.

Drei Beispiele:

Originalbild hat 350 dpi, Joboptions geben Downsample-Auflösung von 300 dpi vor und Downsample-Treshold liegt bei 1,33 (d.h. Bilddaten mit einer effektiven Auflösung über 400 dpi werden auf 300 dpi heruntergerechnet)

a) Bild wird mit 100% eingebaut und PDF erzeugt --> kein Downsampling, weil Schwellwert von 400 dpi nicht überschritten

b) Bild wird mit 80% skaliert eingebaut (effektive Auflösung 350 dpi / 0,8 = 437,5 dpi) und folgerichtig vom Distiller kaputtgerechnet, weil einerseits Überschreiten des Schwellwerts 400 dpi und andererseits Auflösungsreduzierung im gefährlichen Bereich von 50,x%-100% (konkret 68,6% weil 300 dpi / 437,5 dpi)

c) Bild wird mit 58% skaliert eingebaut (effektive Auflösung 350 dpi * 0,58 = 603 dpi) und folgerichtig nicht vom Distiller kaputtgerechnet sondern einfach nur sauber heruntergerechnet auf 300 dpi. Auflösungsreduzierung in dem Fall 49,8% d.h. nicht im kritischen Bereich zwischen 50,x% und 100%). Der Distiller hatte für die Neuberechnung eines jeden Ziel-Pixel mindestens 2x2 Pixel im originalen Bildobjekt zur Hand und konnte deshalb ein sauberes Resultat liefern.

Ich hoffe, diese Beispiele verdeutlichen jetzt, wovon ich spreche. Nämlich nur vom Fall b) da oben und den dafür relevanten Parametern, sprich DownsampleTreshold-Schwellwert, kritischer Auflösungsreduzierungbereich im Distiller (50,x%-100%), ursprüngliche Bildauflösung und als vierte Größe der Skalierungsmaßstab im Layout-Programm.

Sprich, wenn nicht alle Faktoren passen, dann kann es sein, daß Fall c) eintritt (sauberes Downsampling) und man partout nicht verstehen kann, wieso sich andere über die Qualität des Downsampling mokieren (weil die eben nur Fall b da oben referenzieren).

Und was ist die simple Lösung für obiges Problem? Anstatt mit dem Taschenrechner zu hantieren, einfach DownsampleTreshold auf einen Wert größer/gleich 2 setzen und schon ist es völlig unmöglich, daß der Distiller im kritischen Grenzbereich von 50,x%-100% Auflösungsreduzierung arbeitet. Und das Ganze hat noch nicht mal so drastische Einflüsse auf die Dateigrößen, denn die wirklich dicken Brocken, die eine viel zu hohe effektive Auflösung haben, werden ja nach wie vor auf die passende Zielauflösung heruntergerechnet. Nur der kritische Grenzbereich (also mein Fall b weiter oben) wird in jedem Fall vermieden. Und das betrifft im Regelfall nur eine kleine Anzahl Abbildungen je Objekt, d.h. im Extremfall verschmerzbares marginales Anwachsen der Dateigrößen aber die Garantie, daß der Distiller nichts mehr kaputtrechnet.

Gruss,

Thomas


als Antwort auf: [#291424]
(Dieser Beitrag wurde von Thomas Kaiser am 14. Mai 2007, 15:40 geändert)

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

Thomas Kaiser
Beiträge gesamt: 1299

14. Mai 2007, 15:45
Beitrag # 14 von 79
Beitrag ID: #291440
Bewertung:
(70766 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo Peter,

Antwort auf [ pkleinheider ] Habe mir ein Graustufenlogo senden lassen, dass nach dem Downsampeln von 800 auf 300 ppi sehr unscharf ist.


Ich würde fast wetten, daß das Downsampling von unter 600 ppi auf 300 ppi geschehen ist, sprich das Logo vermutlich im Layoutprogramm mit 134% oder mehr platziert war (in Folge Reduktion der effektiven Auflösung auf unter 600 ppi und damit Eintritt in den kritischen Distiller-Downsample-Grenzbereich von 50,x%-100%)

Gruss,

Thomas


als Antwort auf: [#291414]

Desktruktiv agierende "allgemein empfohlene" Distiller-Settings

rohrfrei
Beiträge gesamt: 4492

14. Mai 2007, 16:35
Beitrag # 15 von 79
Beitrag ID: #291449
Bewertung:
(70736 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,

Zitat Äh, reicht das denn immer noch nicht?

Sorry, den Beitrag darüber habe ich nicht gesehen, da er wohl gepostet wurde, als ich meinen Beitrag schrieb.

Zitat da ich weiterhin glaube, daß wir aneinander vorbeischreiben bzw. ich die eigentliche Problematik wohl noch immer nicht klar genug ausgebreitet habe, ein letzter Versuch:

das glaube ich gar nicht, ich denke aber, man kann das Problem unterschiedlich gewichten - und genau das machen wir

Zitat Und was ist die simple Lösung für obiges Problem? Anstatt mit dem Taschenrechner zu hantieren, einfach DownsampleTreshold auf einen Wert größer/gleich 2 setzen und schon ist es völlig unmöglich, daß der Distiller im kritischen Grenzbereich von 50,x%-100% Auflösungsreduzierung arbeitet.

Dem stimme ich ja zu, wenn man es ganz korrekt machen will. Aber dann würde ich auch Adobe in die Pflicht nehmen. Denn die X-Ready-Vorgaben kommen ja nicht ganz von ungefähr. Wenn man sich mal die default-Werte vom Distiller ansieht, dann erkennt man ja auch schon einen deutlichen Unterschied zwischen Version 7 und 8. Wenn ich in der jeweiligen Distiller-Version 300 dpi eingebe, dann schlägt mir der Distiller folgendes vor:

Distiller 7:
Code
  /DownsampleColorImages true 
/ColorImageDownsampleType /Bicubic
/ColorImageResolution 300
/ColorImageDepth -1
/ColorImageMinDownsampleDepth 1
/ColorImageDownsampleThreshold 1.50000

bei 300 dpi wird ab 450 dpi gerechnet

Distiller 8:
Code
  /DownsampleColorImages true 
/ColorImageDownsampleType /Bicubic
/ColorImageResolution 300
/ColorImageDepth -1
/ColorImageMinDownsampleDepth 1
/ColorImageDownsampleThreshold 1.28667

bei 300 dpi wird schon ab 386 dpi gerechnet

Also dann wäre es doch wünschenswert, wenn Adobe in Distiller, InDesign usw. einen einheitlichen Berechnungswert von 2 als default-Vorgabe wählen würde.

Gruß


als Antwort auf: [#291424]
X