Hallo Marco,
das steht und fällt auch immer mit der Umgebung. Wir arbeiten sehr viel aus Datenbanken und Bestandsdaten heraus, wenn man dann einen Job reaktiviert, in dem plötzlich wesentlich neuere Abbildungen stecken, als in der Datenbank, gibt das regelmässig ziemlich kuddelmuddel, das unter Umständen sogar dazu führt, das jemand mit dieser kleingerechneten Variante für die zwischenzeitliche, einmalige 2.-Anwendung den Originaldatensatz bei der 3.-Anwendung überschreibt.
Da heute Datenmengen bei der Sicherung und auch im Netz nicht mehr die Rolle spielen, haben wir hier bei Katalogseiten (Die Produikte fangen als Neuheit ihr Datenleben an, es gibt ein Datenblatt und die Hauptabbildungen sind A5 oder sogar A4 groß, im Laufe ihres Produktzyklus werden sie zu Zubehör oder Auslaufmodellen degradiert, und werden gerade mal noch als 4x6cm Briefmarke abgebildet.
So was geht hier alles mit den Originaldaten. Das führt u.U. zu unkomprimierten PS-Dateien von einigen hundert MB je Seite, aber das juckt dank OPI und GB-Ethernet keinen.
Wir rechnen eigentlich nur noch herunter für Zeitschriften Reaktionen oder Anzeigen, die per mail rausgehen oder explizit 1:1 platzierte Abbildungen verlangen.
Letztendlich entscheiden also immer Faktoren wie Termindruck, Kosten, Wiederverwendbarkeit und Transparenz im Workflow über die Vorgehensweise.
So mag es keinen Sinn machen, einmalig einen 40MB Scan unmittelbar vor der Belichtung auf die konkret benötigten 15% herunterzurechnen, wohingegen es sehr viel Sinn macht ein Bild das 300x als abgesofteter Seitenhintergrund verwendet wird, auf die verwendeten 90% herunterzurechnen, und in Anbetracht der Absoftung und evtl. Weichzeichnung die Auflösung auf 150dpi zu reduzieren. Das spart dann zwar absolut vielleicht nur 10MB, aber das eben 300 mal, und zwar beim Layout sichern und Bildaufbau am Monitor während der ganzen Layoutphase, den dort benötigten Grobausdrucken und dem letztendlichen, hochauflösenden Drucken.
MfG
Thomas
als Antwort auf: [#135367]