News und Tutorials zu Adobe Photoshop

[GastForen Programme Print/Bildbearbeitung Adobe Photoshop Skalieren auf einheitliche Datengrösse

  • Suche
  • Hilfe
  • Lesezeichen
  • Benutzerliste
Print/Bildbearbeitung - Photos, Layout, Design
Themen
Beiträge
Moderatoren
Letzter Beitrag

Skalieren auf einheitliche Datengrösse

erte
Beiträge gesamt: 11

6. Jan 2012, 16:06
Beitrag # 1 von 5
Bewertung:
(1353 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Hallo,
wie kann ich eine Aktion erstellen, die Bilder unterschiedlicher Proportion und Datengrösse auf eine einheitliche Datenmenge reduziert?
Beispiel: Ausgangsdateien z.B. 120 MB, 70 MB, 150 MB sollen alle auf einheitliche 50 MB interpoliert werden. Auflösung und Proportion bleibt erhalten. Für jede einzelne Datei müsste also der Prozentsatz der Skalierung (hier also 64,6%, 84,5%, 57,8%) berechnet werden. Für eine einzelne Datei kann man das ja mit dem Tool Bildgrösse durch probieren hindeichseln. Aber mein Problem wäre die Automatisierung auf eine Sollgrösse (Datenmenge).
Gibt es ein Skript?
Vielen Dank.
X

Skalieren auf einheitliche Datengrösse

Thomas Richard
  
Beiträge gesamt: 19334

9. Jan 2012, 12:15
Beitrag # 2 von 5
Beitrag ID: #487550
Bewertung:
(1297 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Antwort auf [ erte ] Gibt es ein Skript?

Nein.

Gibt es einen Sinn sowas zu tun? M.E.: Auch Nein.


als Antwort auf: [#487449]

Skalieren auf einheitliche Datengrösse

erte
Beiträge gesamt: 11

9. Jan 2012, 12:39
Beitrag # 3 von 5
Beitrag ID: #487555
Bewertung:
(1280 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Danke Thomas,
der Sinn des Ganzen? Handling für ein Archivierungsprojekt.
Die Software zur Archivierung verarbeitet nur bis max. 50 MB pro Datensatz. Um also die höchstmögliche Qualität innerhalb der Grenze zu erhalten, möchte ich möglich knapp unter der Obergrenze von 50 MB bleiben. Vorlagen sind Digitalrepros, Scans etc. in unterschiedlichsten Proportionen (quadratisch, lange Hoch- od. Querformate. TIF-LZW Komprimierung nicht einbezogen. Mit einer Standard-Seitenlänge kann ich nichts anfangen. Möglich, dass man das nur mittels Java- oder Applescript schafft.
R.T.


als Antwort auf: [#487550]
(Dieser Beitrag wurde von erte am 9. Jan 2012, 12:40 geändert)

Skalieren auf einheitliche Datengrösse

thomas_bredenfeld
Beiträge gesamt: 197

9. Jan 2012, 13:10
Beitrag # 4 von 5
Beitrag ID: #487558
Bewertung:
(1256 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
hi r.t.!

ich sehe auch nur die möglichkeit einer umsetzung in javascript, wobei das aber nicht allzu heftig sein sollte. die dateigröße lässt sich ja relativ einfach von der bildgröße her ableiten (pixelbreite x pixellänge x 3 = dateigröße in byte). allfälliges runterskalieren auf eine zielgröße ist dann nur noch handelsüblicher dreisatz ;-)

die unbekannte in dem ansatz ist die kompression, die bei deiner anforderung in möglichst effektiver form wünschenswert ist. deren ergebnis hängt ja mehr oder weniger von der datenstruktur ab (ganz bes. b. jpeg). inwieweit da zip/packbits oder lzw besser vorhersehbar und damit verlässlich in das verfahren einrechenbar ist, müsste man experimentell ermitteln.

eine andere (wesentlich aufwändigere) möglichkeit wäre, eine datei auf verdacht zu speichern und dann zu schauen, ob die zu groß oder zu klein ist. (hier bin ich jetzt mal auf die schnelle und ohne nachprüfung auch nicht sicher, ob das javascript-objektmodell von photoshop überhaupt die größe von extern liegenden, ungeöffneten dateien rausbekommen kann.)

insgesamt klingt das aber nach einer größeren anzahl solcher datensätze, so dass der entwicklungsaufwand für ein solches skript wohl lohnend sein dürfte.

hope this helps

lg
tb


als Antwort auf: [#487555]

Skalieren auf einheitliche Datengrösse

Thomas Richard
  
Beiträge gesamt: 19334

9. Jan 2012, 13:27
Beitrag # 5 von 5
Beitrag ID: #487563
Bewertung:
(1250 mal gelesen)
URL zum Beitrag
Beitrag als Lesezeichen
Antwort auf [ erte ] Handling für ein Archivierungsprojekt.

Eine Archivierung deren erste Amtshandlung das eindampfen des zu archivierenden Datenbestandes beinhaltet, hat nach meinem Dafürhalten nur einen sinnvollen Speicherort: /dev/null

Ich möchte dir mal zugute halten, dass du nicht weißt was für ein Schwachsinn es ist, eine 52MB große Datei auf 50MB herunterzurechnen. Denn vom Detailreichtum kann sie kaum einer auf 26MB herunterskalierten Version das Wasser reichen.

Der Faktor Kompression, den Thomas Bredenfeld eben ins Spiel brachte, ist ein weiterer Aspekt. Redest du von 50MB Endgröße der Datei? Warum ein 80MB großen Scan überhaupt auf 50MB bringen wenn er verlustlos komprimiert schon jetzt mit unter 50MB abzulegen wäre?


als Antwort auf: [#487555]
X