Servus,
ohne jetzt deine Infrastruktur genau zu kennen, gibt es doch ein paar Eckpunkte, welche bei der Performance im Netzwerk von Bedeutung sind.
Da wäre zum einem erwähnenswert, dass der verwendete Raidlevel im Datastore einen signifikanten Einfluss auf die Geschwindigkeit hat, in welcher die Daten aus dem Netzwerk weggeschrieben werden können. Ein Raid 1 ist das langsamste Raid, weil es eine weitere Platte im Verbund nur als Spiegelplatte benutzt. Die Platten haben demnach nur die Geschwindigkeit einer Platte. Ein Raid 5 oder 6 ist ein Kompromiss zwischen Performance und Kosten. Die Daten können schnell gelesen werden, aber je nach Güte des Controllers benötigt dieser seine Zeit beim Schreiben die Parität zu ermitteln. Durch die Parität entsteht auch ein, wenn auch vernachlässigbarer, Overhead da etwas mehr Daten geschrieben werden müssen. Ein Raid 0 oder 10 ist das schnellste der Raids wobei 0 ein Risiko darstellt, da keine Ausfallsicherheit gewährleistet ist und 10 die teuerste Variante ist, da der Verschnitt sehr hoch ist. Auch sollte man die Einstellungen des Adapters überprüfen, hier kann man den Cache ein- bzw. ausschalten, was seinen positiven bzw negativen Beitrag zur Gesamtperformance leistet. Heutige moderne Raids mit modernen Platten (besser SAS aber auch schnelle SATA) leisten aber so gut wie gar keinen Widerstand mehr und sind nur noch in seltenen Fällen das Nadelör aber man sollte es im Hinterkopf behalten, wenn man anfängt die Bytes zu zählen.
Ebenfalls entscheidend bei der Performance der gesamten Infrastruktur ist das schwächste Glied in der Kette. Bei professioneller und aufmerksamer Konfiguration ist das idR nicht der Server, sondern der Client. Werden Daten zwischen Server und Client ausgetauscht, gelten erst mal die og Hinweise bzgl der Plattengeschwindigkeit. Ein Client mit einer Platte, diese vielleicht auch billig und langsam, wird Mühe haben ein Gigabit Netzwerk zu sättigen. Der Server kann nur die Daten wegschreiben, die er vom Client bekommt und umgekehrt, muss der Server seine Geschwindigkeit anpassen, damit der Client die Daten verarbeiten kann.
Des Weiteren hat das verwendete Netzwerkprotokoll einen Einfluss auf die Geschwindigkeit im Netzwerk. Jedes Protokoll bringt seinen eigenen Overhead mit, was von der Netto Transferrate abgezogen werden muss. SMB zB hat einen recht umfangreichen Overhead, AFP ist imho in etwa in der selben Liga und FTP zB ist ein sehr schnelles Protokoll. Aufgrund der Gruppe in die du postest gehe ich von AFP aus. Da sin die von Thomas angesprochenen 100 MB/s schon ganz ordentlich, so habe ich das hier nicht gemessen aber ich lass das mal so stehen, da unsere in die Jahre gekommene Infrastruktur sicher keine Referenz mehr darstellt.
Und um bei der Infrastruktur zu bleiben, haben auch die Switches einen Einfluss auf die Performance. Je nach Größe und Belastung des Netzwerks kann sich hier schon mal ein Nadelör entwickeln. Auch Netzwerkarten spielen eine Rolle. Delegiert die Karte zB Aufgaben an die Haupt CPU oder ist sie in der Lage diese selbst und in ausreichender Geschwindigkeit zu erledigen, kommen hier zB sehr wohl zum tragen. Hier sollte man nicht am falschen Ende sparen, ein qualitativ hochwertiger Adapter für einen Client kostet keine 10 Euro mehr und bei einem Server sind auch gute Adapter im zweistelligen Bereich zu haben. Hat sich hier mal ein Nadelör oder gar ein Fehler eingeschlichen, ist dieser nur noch schwer zu lokalisieren.
Auch bzgl. der Verkabelung gibt es Richtlinien, wie weit ein Stromkabel von einem Netzwerkkabel entfernt sein darf, wobei heutige Kabel eigentlich gut gegen solche Einflüsse abgeschirmt sind. Aber auf eine ordentliche Verkabelung sollte man bestehen, weil auch hier Fehler nur schwer zu lokalisieren und nebenbei auch recht umständlich zu beheben sind.
Als letztes gilt es noch Messfehler zu vermeiden. Man beurteilt die Netzwerkperformance nie daran, wie schnell zB Photoshop eine Datei über das Netzwerk öffnet. Entwickler solcher Anwendungen haben, wenn überhaupt, nur im zweiten oder dritten Blick die Übertragungsgeschwindigkeit im Auge. Dass das auch bei Adobe so ist, sieht man zB bei InDesign auf Windows. Hier wird jedes empfangene Byte bestätigt, keine Ahnung aber ob das bei der CS5 auch so ist. Aber es gibt adäquate Tool, welche zB das Festplatten-Subsystem nicht involviert und somit eine etwas genauere Beurteilung des Netzwerkes zulässt, wenn es denn darum geht hier die native Geschwindigkeit zu ermitteln. Wobei natürlich auch Tests des gesamten Systems nützlich und aufschlussreich sind, jedoch sind dann diese nicht dazu geeignet die bremsende Komponente zu ermitteln...!
HTH Tom
--
prontosystems.de - we are connecting more than computers...