1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Wir danken allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben.

Xserve und MaxOS X Server für kleine Agentur?

Dieses Thema im Forum "Hardware" wurde erstellt von typneun, 10. Mai 2005.

  1. Ich würde eine dell kiste kaufen und ein debian linux draufhauen. Für 4 Leute ist das eine kostengüngstige Lösung.
    (Wenn sich einer auskennt, sonst gibt es nur die xserver lösung)

    Dann kannst Du auch terminaldienste nutzen.
    VPN, Webserver ist in windeseile installiert.

    Windows 2003 server für 4 Leute :party:
     
  2. Mäkki

    Mäkki New Member

    Mac OS X Server kostet für 10 Leute so um die 450.- (incl. UpgradeOption auf unlimited).
    Komm jetzt nicht mit ner Kiste, die von Anfang an die "Dell"e hat, das die Administration in keinem Verhältnis zum Preis steht...

    Und ansonsten wollen Sie ja auch ein schnelles System... :D
    sprich: optimiert für Spottlight, iChatServer und was man sonst noch ungern vermisst.
     
  3. Mäkki

    Mäkki New Member

    gähn. Wenn man ein Auto hat, braucht man keinen Fiat.
     
  4. grufti

    grufti New Member

    Alle Scans oder Daten sind oder landen zentral auf dem Server, deshalb ja auch die Raid Laufwerke. Lokal zu speichern würde bei uns keinen Sinn machen, da z.B. bei umfangreichen Projekten von mehreren Plätzen gleichzeitig auf die Daten zugegriffen, geprintet oder PS-Daten gerippt werden müssen.

    Die Bilddaten sind zu umfangreich für zusätzliche Backups. Alle Textdaten sind auch auf dem Server, jedoch in 4 internen Partitions. Davon läuft von allen Bewegugsdaten ein tägliches Backup mit Retrospect6 auf eine Lacie Terra. Es passiert leider manchmal, dass versehentlich was gelöscht worden ist. Damit können wir über ein Jahr lang rückwirkend auf alle Daten zugreifen. Das läuft automatisch ab und keiner muss sich drum kümmern. Erledigte Aufträge werden auf DVDs archiviert.

    Die Ansicht von kate teile ich in diesem Fall ausnahmsweise mal nicht. Bei den Layoutarbeiten werden ja nicht die Feindaten geladen, sondern lediglich die Übersichtsbilder. Mit "Flupp" sind auch umfangreichste Dokumente am Bildschirm.

    Alle Reproarbeiten laufen auf einem eigenen Gigabit-Strang. Dadurch gibt es auf den Workstations keinerlei Verzögerung, wenn große Datenmengen "geschaufelt" werden.

    Gruß
     
  5. typneun

    typneun New Member

    mann, wer hätte gedacht, dass der schritt von einem arbeitsplatz auf mehrere arbeitsplätze solche folgen nach sich zieht und so kompliziert ist? :eek:

    gerade deshalb bin ich für jede sichtweise dankbar.

    @kate: den einwand mit dem backup verstehe ich nicht ganz. sollte nicht im sinne des backups ja doch alles auf dem server ablaufen? außerdem sehe ich probleme mit verknüpfungen, wenn manche dateien auf workstations liegen, manche aber auf dem server...

    @mäkki: yep, genau das sind die dinge, die wir mit tiger nutzen wollen. allen voran natürlich spotlight. bei 40.000 dateien ein nicht zu unterschätzender vorteil!
     
  6. typneun

    typneun New Member

    *nochmalrauskram*

    nachdem hier zuhause jez tiger auf dem macmini läuft und ich spotlight etc. wirklich zu schätzen weiß, will ich dies natürllich später auch im büro nutzen.

    man kann in spotlight auch "server" bei der spotlight-suche anwählen - aber bezieht sich das auch auf WIN- oder linux-server? weiß da jemand was genaueres?

    und: Wie arbeiten denn die agenturgrafiker dieses forums so? lokal auf dem mac mit regelmäßigem rübersichern auf den server - oder immer komplett übers netz auf dem server? meldet euch doch mal... infos, infos, infos... :) danke dafür!
     
  7. Mäkki

    Mäkki New Member

    Erst nochmal zu Ethernet und Bandbreite: (je nach Örtlichkeit ->) es ist auch möglich Arbeitsplätze via FireWire+TCP/IP statt Ethernet anzubinden.

    Natürlich kann man auch Server + Dosen durchsuchen.

    Wenn ihr wie wir keinen OPI-Server habt -> lokal + rübersichern.
     

    Anhänge:

  8. Kate

    Kate New Member

    Ich meine, dass das von deinen Bedürfnissen abhängt, also wenn es eure Arbeitsweise zulässt und es von der Performance für euch ok ist spricht natürlich gar nichts gegen eine rein serverbasierte Ablage mit dazu passendem Backup.

    Nach meiner Erfahrung gibt es aber genau dann Probleme wenn einmal, und das wird mit Sicherheit kommen, ein Projekt sinnvollerweise doch lokal erstellt wird. Genau dann hat man Probleme mit den Verknüpfungen, der Ablage, dem Zwischenspeichern, den Versionsreihenfolgen und den Backups. Da das nach meiner Erfahrung also sowieso eher früher als später kommen wird, ist es besser gleich eine Arbeitsweise mit diszipliniertem Ablauf einzuführen, als erstmal in einen Schlamassel zu geraten wenn man mitten in einem Projekt ist. ;-)

    Aber vielleicht ist es für dich besser, erstmal einfach anzufangen und dann später, aufbauend auf eigenen Erfahrungen, ein eigenes Vorgehen zu entwickeln. Aber gerade bei sehr kreativen Menschen lassen sich nach meiner Erfahrung Arbeitsabläufe nicht mehr so einfach umändern......
     
  9. suj

    suj sammelt pixel.

    zum "lokalen" Arbeiten auf dem jeweiligen Mac rate ich ab!

    Bei 4 Leuten ist das vielleicht noch mehr oder weniger übersichltich, aber bei uns in der Firma unvorstellbar! Schon wegen dem OPI machts keinen Sinn.

    Aber es muss nur mal einer vergessen, die Daten auf den Server... achnee ich will gar nicht dran denken :crazy: ;)
     
  10. Mäkki

    Mäkki New Member

    Die haben noch nicht mal einen Server - und da fängst du mit OPI an
    :cool:
     
  11. suj

    suj sammelt pixel.

    :D

    war ja nur ein Beispiel. Das Arbeiten auf dem Server direkt ist zwar langsamer, aber wesentlich effektiver und sicherer.
    Wir haben da auch sonst keine Probleme, allerdings lässt sich unser Server nicht mit einem Xserve vergleichen ;)
    So einen benutzen wir gerade mal als Schriften-server :tongue2:
     
  12. typneun

    typneun New Member

    hehehe, danke, suj. jez fühle ich mich gleich besser. :)

    danke für eure infos. ich selbst kenne es selbst aus meiner ehemaligen agentur, dass alle jobs wirklich über den server laufen. nichts wird lokal gespeichert - ausnahmen gibt es sicher (300MB-PSDs oder ähnliches, die man nicht einfach mal kurz sichern kann wie eine IND-datei), aber generell sollten bezüglich backup-sicherheit und versionierung doch wirklich alle wichtigen daten auf dem server liegen.

    wir hatten damals (vor 5 jahren) die alten 100mbit-leitungen, und es ging trotzdem. nun sind die dateigrößen mittlerweile auch angewachsen (aufgrund besserer hardware, G5 und so), aber trotzdem denke ich, dass da ein xserve mit 1000mbit-switch zu guten bandbreiten sorgen sollte. wenn nur der preis nicht wäre... :)

    naja, mal schauen wie es weiter geht. ich halte euch auf dem laufenden - wenn es euch nicht stört. :) ihr könnt natürlich einwände, ideen und meinungen immer wieder loswerden - wir haben 4 offene ohren! ;)

    schöne feiertage noch!
     
  13. typneun

    typneun New Member

    äh, wi, schriftenserver? wat läuft da drauf? suitcase sever, oder wie?
     
  14. javaklaus

    javaklaus :$ rm -r //Windows

    Also, wenn es primär um storage und tatsächliche Datensicherheit durch Hardware -Raid geht und man aufs Ganze gehen will,
    gibt es nur das hier :
    http://www.apple.com/xserve/raid/
    Kostet aber ein Schweine-Geld.
    Bei 4 Leute-Zugriffen wohl eher nicht zwingend nötig.
    Ich administriere sowohl reine Mac-als auch gelegentlich heterogene Netze(WinTerminalServices/Linux/Solaris....).
    Es gibt für jede Art Server-Einsatz pro&contra.
    Die wichtigste Unterscheidung betrifft Server-Software und Server -Hardware.Was zählt,ist die individuelle Lösung-angepasst auf die tatsächlich
    anfallenden Bedürfnisse.Dazu bedarf es meist eines guten Administrators,der alle (Hard-und Soft)-Systeme kennt und supporten kann und der insbesondere Unix,sowie Programmier-Kenntnisse hat.Man kann ne Menge Kohle sparen.Aber die Geschichte ist viel zu lang, um sie hier übersichtlich zu erläutern.
     
  15. grufti

    grufti New Member

    Stimmt, XRaid ist unverschämt teuer und muss bei kleineren Datenmengen auch nicht sein.

    Es ist günstiger, in den XServe eine Raid-Karte einzubauen und die 3 Laufwerkeinschübe als Raid zu formatieren. So habe ich das gemacht und es hat sich auch schon bewährt. Die von Apple verbauten 400 GB Platten, sind im Handel ca 160,- € billiger. Es müssen jedoch von Apple als Minimum 2 x 80 GB zusätzlich eingebaut werden, da freie Einschübe sonst ohne Kontroller ausgeliefert werden. So ist es mir dummerweise gegangen.

    Durch die "Raid-Pufferung" verbleiben von den 1,2 TB netto ca. 960 GB an verfügbarer Nettokapazität. Gibt ein Laufwerk mal den Geist auf, dann Reserveplatte rein und das System rekonstruiert die Daten wieder.
     
  16. Tambo

    Tambo New Member

    Noch ne Variante, hängt von den workstations ab:

    jede workstation mit ner 2ten HD intern spiegeln, und 1- 2 x täglich auf den server - der dann ein G4/G-5 - mit 2 -3 grossen S-ATA - sein kann, abgleichen. Dort dann kein Spiegel-RAID, sondern ein server-internes Abgleichen um ...3 Uhr morgens, sprich zeitversetzt.

    Hat den Vorteil, dass die "alten" Daten auf dem server noch vorhanden sind, falls dummerweise überschrieben wird, etc.
     
  17. grufti

    grufti New Member

    Seit etwa 12 Jahren arbeite ich jetzt mit Raid Laufwerken. Es gab dabei noch nie "zerstörte" Daten. Immer, wenn ein Job "verschwunden" war, war der Mensch am Werk. Es passiert allerdings leider immer wieder, dass mal ein Auftrag gelöscht wurde. Meistens, weil einer felsenfest davon überzeugt war, dass bereits auf CD archiviert sei. Deshalb läuft ein konsequentes Backup aller Bewegungsdaten.

    Eine gespiegelte Platte löst solche Probleme nicht, sondern spiegelt halt jeden Blödsinn. Diese Versuche habe ich ganz schnell wieder aufgegeben. Problem ist ja, dass solche Dinge oft erst Wochen später bemerkt werden.

    Es ist sicher praktikabler, alle aktuellen Daten für den Zugriff jeder Workstation zentral und ohne Verwaltungsaufwand auf dem Server zu halten.

    Nachtrag: Mit der lokalen Spiegelung nimmt man sich ja auch den Vorteil, von jeder Workstation aus auf die Daten zugreifen zu können. Umfangreiche Werke werden bei uns z.B. in Abschnitten auf mehreren Plätzen layoutet und geprintet. Auf einem Platz werden Postscript-Daten geschrieben, auf dem anderen zeitversetzt die PDF. Lokal wäre das ein Alptraum.
     
  18. Tambo

    Tambo New Member

    einverstanden, grufti
    bei Dir als global player :wink: funzt das mit den lokalen Daten nicht;
    für eine 4 Vierergruppe ist das schon vorstellbar, denn dort werden kaum alle 4 gleichzeitig Zugriff auf alle Daten benötigen...
     
  19. grufti

    grufti New Member

    *schmunzel*
    Wir sind hier auch nur ein ganz kleiner Laden und müssen im bebilderten Buchbereich halt jede Menge an Daten einigermaßen sinnvoll durchkriegen. Deshalb stehen jedem Setzer mindestens 3 gleich konfigurierte Arbeitsplätze zur Verfügung, auf die er für Routinearbeiten, wie z.B. die Printerei seine eigene Station entlasten kann und die Wartezeiten entfallen. Lokal ginge das nicht.

    Bei einer Auftragsstruktur mit kleinen Jobs, die nicht im Team bearbeitet werden müssen/können, ist tatsächlich die Notwendigkeit eines Servers eine reifliche Überlegung wert. Ich würde das allerdings machen, auch wenn es sich erst längerfristig "rechnet".
     
  20. javaklaus

    javaklaus :$ rm -r //Windows

    Nun ja, grufti hat da eine hervorragende Lösung beschrieben-allerdings weiss ich, dass selbst in Kleinst-Agenturen 960GB sehr schnell erschöpft sind,so sehr mich das auch immer wieder wundert.
    Spätestens an diesem Punkt müsste der nächste Xserve her und schon ist man im (Grund-)Preisbereich des Xserve Raid.
    GigabitEthernet ist zwar schön aber ein Flaschenhals.
    FibreChannel ist sauteuer aber sauschnell.
    Alleine die Controller, die dann jeder Mac braucht, schlagen nochmal zu Buche.
    Ich denke z.Zt darüber nach, ob über Firewire TCP die Kosten gesenkt werden könnten.
    Ebenso sei angemerkt, dass die Idee von typneun, einen (öffentlichen)Webserver auf einem Datensicherungs-Server laufen zu lassen,
    mit Vorsicht zu geniessen ist.Alles, was man freigibt, muss man auch schützen.Befinden sich sicherheitsrelevante Daten auf einem host, der von aussen angesteuert werden kann, wird es hakelig.
    Ein webserver ist nichts anderes , als ein Programm(bzw. ein Dienst oder Daemon), das generelll auf jedem OS laufen kann, welches von einem Spezialisten auch verwaltet werden kann.Dabei ist wichtig, dass eine raketenschnelle Standleitung(Zusatzkosten) mit fester ip-Addresse und hohem upstream zur Verfügung steht.
    Selbstverständlich sollte man ein Unix-System einsetzen, da MS propietäre
    Dienste einsetzt, die sich selten an Standards halten, was aber nicht heissen soll,dass Win 2003 Server nichts könnte.Die Terminalservices(citrix) werden sogar von grossen Mac-Händlern eingesetzt.Wirklich wahr.
    Das hängt damit zusammen, dass Mac OS 9 damals sowas nicht konnte.
    Alles in Allem lässt sich sagen, dass eine Agentur in jedem Falle in einen guten Administrator investieren sollte, der zumindest gelegentlich onTheFly
    eingreifen kann bzw. der die g e s a m t e Arbeitsumgebung in und-auswendig kennt.
     

Diese Seite empfehlen