banner
Nachrichtenzentrum
Wettbewerbsfähiger Fabrikpreis und hervorragende Qualität

Warum ich endlich ein Synology NAS für After Effects von Chris Zwar gekauft habe

Oct 30, 2023

Wie ich gelernt habe, mir keine Sorgen mehr zu machen und es zu lieben, Festplatten zu drehen

Zu Beginn des neuen Jahres ist es selbstverständlich, auf das Jahr 2022 zurückzublicken und über die letzten zwölf Monate nachzudenken. Während Adobe weiterhin neue After Effects-Funktionen und -Updates einführte, war die bemerkenswerteste Änderung für mich die Aufrüstung meines Heimbüros mit einem Synology NAS. Das war etwas, was ich schon seit Jahren geplant hatte – tatsächlich hatte ich so lange darüber nachgedacht, dass ich selbst überrascht war, als es endlich passierte.

Der Kauf einer neuen Hardware kann spannend sein. Aber abhängig von Ihren Umständen kann es auch mühsam oder nervenaufreibend sein, oder, wenn Sie unerwartet etwas ersetzen müssen, geradezu nervig. NachJahre Trotz des Aufschiebens war 2022 das Jahr, in dem ich mir endlich ein „richtiges“ NAS gekauft habe. Als ich jünger war, hätte ich das unglaublich spannend gefunden. Jetzt, wo ich älter bin, war es ein viel mühsamerer Prozess.

Bei diesem Artikel handelt es sich nicht um eine Rezension, einen Benchmark oder gar eine Kaufberatung. Es ist einfach ein persönlicher Blog über die Denkprozesse, die ich im Laufe der Jahre durchlaufen habe, als sich Technologie und Arbeitsumstände verändert haben.

Die Desktop-Video-Revolution und insbesondere die nichtlineare Bearbeitung begannen gerade erst, als ich in den 1990er Jahren an der Universität war. Desktop-Computer allein waren bei weitem nicht leistungsstark genug, um Videodateien abzuspielen. Aber Pionierunternehmen wie Lightworks, Avid und Media 100 führten revolutionäre Grafikkarten ein, die es einem normalen Mac oder PC ermöglichten, Videos in „Broadcast-Qualität“ abzuspielen.

Festplatten waren ein Teil des Problems. Eine einzelne Festplatte war einfach nicht schnell genug, um die für die Videowiedergabe erforderlichen Daten zu lesen. Die Lösung bestand darin, eine Reihe mehrerer Festplatten zu verwenden, um die Arbeitslast zu verteilen und die Leistung zu steigern. Dies wird im Allgemeinen als RAID bezeichnet – eine Abkürzung für Redundant Array of Independent (or Inexpensive) Disks. Der Computer behandelt die Laufwerke als ein Gerät – ein einzelnes Volume, genau wie eine normale Festplatte. Die Dateien werden jedoch aufgeteilt und auf alle Festplatten im Array verteilt, wodurch die Lese- und Schreibarbeit geteilt wird und die Gesamtgeschwindigkeit erhöht wird.

RAID-Arrays wurden in den 1980er Jahren entwickelt, als der Heimcomputermarkt schnell wuchs. Die geringeren Kosten von Verbrauchergeräten machten sie zu einer wirtschaftlich sinnvollen Alternative zu herkömmlichen Mainframe-Systemen, die Unternehmenswelt verlangte jedoch nach Zuverlässigkeit.

In der Geschäftswelt ist die Redundanz der wichtigste Aspekt eines RAID-Arrays – das bedeutet, dass keine Daten verloren gehen, wenn ein Laufwerk ausfällt. Es wurden verschiedene RAID-Typen entwickelt, die unterschiedliche Techniken zur Verteilung von Daten auf mehrere Festplatten mit unterschiedlichem Redundanzgrad verwendeten.

Doch als in den 1990er Jahren die nichtlineare Bearbeitung aufkam, wurde die Redundanz, die ein RAID-Array ausmachte, fast immer übersehen. Was Videoeditoren brauchten, war absolute Geschwindigkeit – die schnellstmöglichen Datenraten – und Redundanz verlangsamte einfach alles. Nichtlineare Editoren verwendeten RAID-Arrays ohne jegliche Redundanz, da mehrere Laufwerke erforderlich waren, um die für die Videowiedergabe erforderlichen hohen Datenraten zu erreichen. Wenn ein einzelnes Laufwerk ausfiel, gingen alle Daten verloren.

Wie alle Video-Hardware in den 1990er Jahren war alles viel teurer als heute. Im Jahr 1995 kostete ein Desktop-RAID-Setup in australischen Dollar sogar 1.000 US-Dollar pro Gigabyte. Das 18-GB-Array, das uns zum ersten Mal angeboten wurde und aus vier separaten Seagate Barracuda-Laufwerken besteht, kostete 18.000 US-Dollar.

Bis Mitte der 1990er Jahre hatten die größten verfügbaren Festplatten eine Kapazität von etwa 4 ½ Gigabyte. Das war so groß, wie es nur ging, aber nicht wirklich groß genug für ein Video. Für die Videobearbeitung war schon immer viel Speicherplatz erforderlich, und so verwendeten typische Bearbeitungssysteme dieser Zeit ein RAID mit mindestens 4 Laufwerken, was einer Gesamtkapazität von etwa 18 Gigabyte entspricht. Vier Laufwerke im Array garantierten außerdem hohe Übertragungsgeschwindigkeiten, ohne die mit SCSI verbundenen Probleme – verschiedene SCSI-Typen, SCSI-IDs, launische SCSI-Ketten und atemberaubend teure Kabel. Wenn Sie es sich leisten könnten, könnten Sie mehr als vier Laufwerke in Ihrem RAID haben – aber das erhöht auch das Risiko, dass ein einzelner Laufwerksausfall das gesamte System zum Absturz bringt.

Dies war meine erste Einführung in das Konzept eines RAID. Im Jahr 1997 erschien mir das Media 100-System, mit dem meine Karriere begann, wie ein teures und exotisches Stück Technologie. Für mich gab es keine Möglichkeit, von zu Hause aus zu arbeiten – mein Job drehte sich um die teure und daher exklusive Sammlung von Computerhardware im Büro.

Doch der erste Eindruck war entstanden: ein RAID gemeintGeschwindigkeit.

Zehn Jahre nach meiner ersten Begegnung mit einem Media 100 sahen Software und Hardware etwas anders aus, aber die zugrunde liegende Technologie basierte auf denselben Prinzipien. Die Redakteure waren auf Final Cut Pro umgestiegen, und Produkte wie Apples Xserve RAID waren entstanden, um Hochgeschwindigkeitsspeicher einfacher und attraktiver zu machen.

Festplatten hatten sich in Preis und Leistung so stark verbessert, dass Redundanz selbst für Redakteure zu einer praktikablen Option wurde. Das Apple Bearbeitungssuiten maßen den Speicher jetzt in Terabyte, nicht in Gigabyte.

Mitte der 2000er Jahre waren RAID-Arrays größer, schneller und günstiger als je zuvor, sie waren – meist – immer noch direkt an einen einzelnen Computer angeschlossen. Da sich mehrere Schnittplätze/Computer dasselbe RAID teilen, war eine wesentlich kostspieligere und komplexere Einrichtung erforderlich. Die ersten Shared RAIDs basierten auf der teuren und leicht volatilen Fibre-Channel-Technologie und wurden als SANs – Storage Area Network – bekannt. Es entstand jedoch auch ein alternativer Ansatz für dasselbe Problem – das NAS oder Network Attached Storage. Ein NAS war nicht so schnell wie ein SAN, basierte jedoch auf der günstigeren, vorhandenen Ethernet-Technologie.

Ich war auf mehreren Branchenveranstaltungen, auf denen die ersten Fibre-Channel-SANs beworben wurden, und der überwältigende Eindruck, den ich hatte, war, dass sie unglaublich teuer und überraschend instabil waren. Wenn der Anbieter es auf einer öffentlichen Ausstellung nicht zum ordnungsgemäßen Funktionieren bringen konnte, welche Hoffnung hatte dann ein normaler Redakteur? Aber trotz der Schwierigkeiten, die offensichtlich mit den ersten Anwendern einhergingen, war klar, dass es anspruchsvoller und möglicherweise VIEL produktiver war, mehrere Computer auf denselben Speicherpool zu verteilen.

Während die zugrunde liegende Technologie hinter einem SAN und einem NAS recht unterschiedlich ist, besteht der einzige Unterschied für den Endbenutzer darin, dass ein SAN als lokales Laufwerk erscheint, während ein NAS per Definition über ein normales Ethernet-Netzwerk verbunden ist. Gigabit-Ethernet war Mitte der 2000er-Jahre endgültig etabliert und bot theoretische Geschwindigkeiten von bis zu 125 Megabyte pro Sekunde – mehr als genug für die Videobearbeitung.

Aber auf persönlicher Ebene arbeitete ich Mitte der 2000er Jahre nun als freiberuflicher Motion Designer und begann darüber nachzudenken, Kopien von Projekten aufzubewahren, an denen ich gearbeitet hatte. Früher bedeutete das Aufbewahren einer Kopie eines Projekts als Redakteur das Mastern einer zusätzlichen Kopie auf Band – und irgendwo in meiner Garage habe ich immer noch eine Schachtel mit Betacam-Bändern aus dem Jahr 1997. Aber die Arbeit als Motion Designer in After Effects bedeutete stattdessen genau das Jetzt wollte ich Kopien von After Effects-Projekten und Quicktime-Dateien.

Die Preise für Festplatten waren weiter gesunken, und Unternehmen wie LaCie hatten tragbare Festplatten auf den Markt gebracht, die sofort einen Markt in der Film- und Fernsehbranche fanden. Das erste externe Laufwerk von LaCie wurde 2003 in den Größen 400 GB und 500 GB auf den Markt gebracht. Da das 400-GB-Modell für 1.900 Aus-Dollar und das 500-GB-Modell für 2.255 Aus-Dollar im Einzelhandel erhältlich ist, ergab dies etwas mehr als 4 Dollar pro Gigabyte. Das war deutlich günstiger als die 18.000 US-Dollar, die uns 1996 für 18 Gigabyte Speicher angeboten wurden! Diese Kapazität in einem kleinen, tragbaren Formfaktor zu haben, war bahnbrechend.

In den nächsten Jahren sanken die Preise weiter, die Kapazitäten stiegen und andere Anbieter kauften ähnliche Produkte auf den Markt.

Im ersten Jahrzehnt der 2000er Jahre entstanden Motion Graphics als unverzichtbares Werkzeug für die Unternehmenskommunikation, während digitale visuelle Effekte die Art und Weise veränderten, wie Hollywood Filme drehte.

Die schnelle Einführung von Bewegungsgrafiken und Animationen führte zur Erzeugung riesiger Datenmengen, wobei einzelne Projekte problemlos Hunderte Gigabyte, wenn nicht Terabyte Speicher beanspruchen konnten.

Bei einer durchschnittlichen Agentur und kleineren Studios wurde das Thema Backups und Archivierung oft entweder übersehen oder einfach ignoriert. Das vielleicht größere Problem bestand darin, dass die Speicherkosten günstiger waren als die Kosten für menschliche Arbeitskraft, um Projekte durchzugehen, zu sortieren und zu konsolidieren.

Eine schnelle Google-Suche zeigt, dass der Kauf einer tragbaren 1-TB-Festplatte derzeit ungefähr so ​​viel kostet wie die Beauftragung eines erfahrenen Künstlers für eine Arbeitsstunde. Die Kosten für 1 TB Speicher für ein größeres NAS oder sogar ein bandbasiertes Archiv sind sogar noch niedriger. Und wenn ein Projekt erst einmal abgeschlossen und geliefert ist, hat niemand mehr Lust, es noch einmal durchzugehen und alles zu klären. Es ist fast eine Selbstverständlichkeit.

Das „Archivieren“ eines Projekts durch einfaches Kopieren aller Daten auf eine externe Festplatte oder sogar ein Bandlaufwerk ist pro Gigabyte relativ kostengünstig. Es war – und ist immer noch – gängige Praxis, komplette Projektordner zu kopieren, komplett mit redundanten Testrenderings, Vorschauen, WIPs usw., einfach weil es einfacher ist als der mühsame – und möglicherweise teure – Prozess, Künstler ihre eigene Arbeit manuell sortieren zu lassen und entscheiden, was behalten werden muss.

Das Grundproblem der Archivierung hat sich nicht verändert und besteht auch heute noch. Die Kosten für die Beschäftigung einer Person für nur einen Tag sind immer noch viel höher als die Kosten für die Lagerung. Sobald ein Projekt abgeschlossen ist, ist es immer noch billiger und schneller, einfach alles zu kopieren, anstatt es durchzugehen und zu versuchen, eine Art aussagekräftiges Backup zu erstellen.

Wenn ich als Freiberufler arbeite, kann es sein, dass ich für ein paar Tage, ein paar Wochen oder ein paar Monate in einem Studio gebucht werde und dann woanders arbeite. Die Verwendung einer tragbaren Festplatte war die einfachste Möglichkeit, Kopien meiner Arbeit aufzubewahren, wenn ich zwischen verschiedenen Unternehmen wechselte.

Doch selbst gegen Ende des Jahres 2010 waren die Kosten für Computerhardware und -software immer noch so hoch, dass die Arbeit von zu Hause aus keine Seltenheit mehr war. Videokameras filmten immer noch auf Band, Kassettendecks waren ein notwendiges Übel, das so viel kostete wie eine Wohnung, und im Allgemeinen waren die nötigen Einrichtungen für die Arbeit mit digitalen Videos von zu Hause aus, während man mit einem Studio zusammenarbeitete, für eine Einzelperson zu teuer.

Software war kein Abonnementdienst, sondern etwas, für das man jährlich viel Geld bezahlte. Bei der Arbeit als Freiberufler lag die Pflicht und Verantwortung für die Bereitstellung leistungsfähiger Hardware und Software also eindeutig beim Studio. Das Gleiche galt für Backups und Archivierung. Größere Studios könnten es sich leisten, ein bandbasiertes Backup-System und jemanden zu haben, der es bedient, kleinere Studios kauften einfach weiterhin externe Laufwerke und stellten sie in Regale, um Staub zu sammeln.

Während ich weiterhin als freiberuflicher Motion Designer arbeitete, stieg die Anzahl der tragbaren Festplatten, die ich kaufte, um meine gesamte Arbeit zu speichern, stetig an. Ich war nicht allein – überall, wo ich arbeitete, gab es Regale mit tragbaren Festplatten, manche beschriftet, manche nicht, aber alle voller unsortierter Projekte über Jahre hinweg. Jedes Mal, wenn ein Kunde anrief und hoffte, ein älteres Projekt zu überarbeiten oder vorhandene Ressourcen wiederzuverwenden, kam es zu einer stillen Panik, als tragbare Laufwerke aus staubigen Regalen geholt und einzeln angeschlossen wurden, um nach dem richtigen Projekt zu suchen.

Im Jahr 2007 kam ein neues Produkt auf den Markt, das sofort meine Aufmerksamkeit erregte. Dabei handelte es sich um ein externes Speichergerät namens Drobo, das vier Festplatten aufnehmen konnte. Der Drobo verfügte über eine Reihe von Funktionen, die ihn einzigartig und besonders für Heimanwender wie mich attraktiv machten.

Erstens bot der Drobo Erweiterbarkeit. Anstatt ein einzelnes externes Laufwerk zu kaufen, es dann aufzufüllen und ein weiteres zu kaufen, können Sie Laufwerke nach Bedarf kaufen. Der Drobo hatte vier Festplattenschächte, aber Sie mussten nicht alle vier Laufwerke füllen, damit er funktionierte. Sie könnten mit nur einem Laufwerk beginnen, und wenn dieses voll ist, könnten Sie ein weiteres und dann noch ein weiteres hinzufügen. Da Sie nicht jedes Mal für ein neues Gehäuse und ein neues Netzteil bezahlen mussten, war dies insgesamt günstiger als der Kauf von vier einzelnen tragbaren Laufwerken.

Zweitens bot der Drobo Redundanz. Das größte Problem beim Sammeln von Regalen voller externer, tragbarer Festplatten war deren Zerbrechlichkeit. Wenn das Laufwerk nicht mehr funktionierte, was häufig vorkam, verloren Sie alle Ihre Daten. Aber der Drobo nutzte mehrere Laufwerke als RAID – mit Redundanz, was bedeutete, dass eines der Laufwerke ausfallen konnte und man nicht alles verlor.

Schließlich verfügte Drobo über eine eigene proprietäre RAID-Form, die es dem Benutzer ermöglichte, Festplattengrößen zu kombinieren und sogar kleinere Laufwerke durch größere zu ersetzen. Früher musste jeder, der mehrere Laufwerke als RAID einrichtete, identische Festplattengrößen verwenden, und sobald das RAID eingerichtet war, war es soweit – die Kapazität des RAID war festgelegt und konnte nicht geändert werden. Herkömmliche RAIDs waren schnell und boten Redundanz, waren jedoch weder flexibel noch erweiterbar.

Aber der Drobo hat das geändert. Sie könnten Festplatten unterschiedlicher Größe kombinieren, und wenn Sie Ihren gesamten Speicher voll hätten, könnten Sie eine der kleineren Festplatten herausnehmen und durch eine größere ersetzen. Damals war dies eine wirklich innovative Lösung, die alle Anforderungen zu erfüllen schien. Data Robotics nannte es „Beyond RAID“.

Der erste Drobo wurde 2007 veröffentlicht und schien eine brillante Lösung für so viele Probleme zu sein. Ungefähr zu dieser Zeit hatte ich mir einen iMac gekauft und arbeitete von zu Hause aus an kleinen After Effects-Projekten. Ich habe ernsthaft über den Kauf eines Drobo nachgedacht, war jedoch immer vorsichtig gegenüber Produkten der ersten Generation, und da mein iMac über einen neuen Firewire 800-Anschluss verfügte, hätte ich etwas mit einem Firewire 800-Anschluss vorgezogen. Obwohl ich als Motion Designer arbeitete, umfasste ein Großteil meiner Arbeit immer noch die Videobearbeitung, und deshalb wollte ich etwas, das schnell genug ist, um die Videowiedergabe zu bewältigen.

Anfang 2008 kündigte Drobo sein Produkt der 2. Generation an, das ziemlich ähnlich zu sein schien, aber über einen Firewire 800-Anschluss verfügte. Aber sie hatten noch einen weiteren Anreiz. Ich kann mich nicht an die genauen Details erinnern, aber wenn man das neue Modell vorbestellt, bekommt man auch etwas namens „Drobo Share“ kostenlos dazu. Ich wusste nicht, was ein Drobo Share ist, aber sie verkauften sie separat für ein paar hundert Dollar. Die Idee, eines kostenlos zu bekommen, schien ein gutes Geschäft zu sein. Also habe ich den Schritt gewagt und einen Drobo mit drei 1-Terabyte-Laufwerken bestellt.

Es war in Ordnung, denke ich.

Fairerweise muss man sagen, dass der Drobo alles getan hat, was er versprochen hat. Es bot Redundanz, sodass ich mir nicht so viele Sorgen über Datenverlust machen musste. Es war erweiterbar. Ich begann mit drei Laufwerken und fügte bei Bedarf ein viertes hinzu. Und als mir dann wieder der Speicherplatz ausging, habe ich die ursprünglichen 1-TB-Laufwerke langsam durch 2-TB-Laufwerke ersetzt. Es funktionierte.

Aber leider war es nur langsam. Wirklich unerwartet langsam. Ich hatte immer noch meine ursprüngliche Annahme von vor 10 Jahren, dass RAID = Geschwindigkeit. Die frühen nichtlinearen Systeme, die ich verwendete, benötigten ausschließlich RAID-Arrays, um zu funktionieren. Das mit unserem Media 100 gelieferte RAID war eine Lösung für den Bedarf an hohen Datenraten. Doch obwohl er über einen neuen Firewire 800-Anschluss verfügte, war der Drobo einfach nicht schnell genug für die Verwendung mit Videobearbeitungssoftware. Es war nicht nur die Übertragungsgeschwindigkeit, sondern die Gesamtlatenz. Es schien einfach lange zu dauern, etwas zu tun.

Noch ärgerlicher war, dass sich die Laufwerke im Drobo abschalteten, um Energie zu sparen, wenn sie 15 Minuten lang nicht verwendet wurden. Es dauerte jedoch immer ein paar Sekunden, bis sie wieder hochgefahren waren – was immer dann der Fall war, wenn der Computer auf eine Datei auf einem beliebigen Laufwerk zugreifen oder sogar einen Dateibrowser öffnen musste. Das war viel irritierender, als ich genau beschreiben kann, und leider konnte dies bei meinem Modell nicht deaktiviert werden (beim nächsten Drobo-Modell konnte man die Energiesparfunktion ausschalten, aber ich blieb dabei hängen).

Was den Drobo Share betrifft … Ich finde es interessant, jetzt darauf zurückzublicken. Ich habe es nie benutzt. Ich habe nie wirklich verstanden, was es war. Es ist ein Symbol meiner damaligen technischen Unwissenheit. Im Jahr 2008 wusste ich einfach nicht, was ein Netzwerklaufwerk – ein NAS – ist.

Wenn Sie neugierig sind: Drobo Share war ein kleines Gerät, das Ihren Drobo in ein NAS verwandelte. Anstatt Ihren Computer über ein Firewire- oder USB-Kabel direkt mit dem Drobo zu verbinden, können Sie die Drobo-Freigabe anschließen und stattdessen über Ethernet eine Verbindung herstellen. Der Drobo Share enthielt einen kleinen ARM-basierten Server und konnte grundlegende Apps ausführen, genau wie moderne NAS-Geräte heute. Dadurch konnten mehrere Computer – Mac und PC – gleichzeitig auf den Drobo zugreifen.

Ich habe es nicht wirklich verstanden, weil ich 2008 noch nie zuvor irgendwo mit einem NAS gearbeitet hatte. Dank des Marketings von Apple ging ich davon aus, dass Firewire 800 superschnell ist, und es kam mir nie in den Sinn, dass es langsamer als Gigabit Ethernet sein könnte (800 ist weniger als 1000 – Gigabit Ethernet ist schneller!). Da ich nur einen Computer hatte – meinen iMac – musste ich keinen weiteren Computer daran anschließen. Es lag also einfach irgendwo in einer Schublade.

Wenn ich verstanden hätte, was es ist, hätte ich es vielleicht benutzt. Aber ich erinnere mich, dass ich darüber nachgedacht habe: Warum sollte ich eine separate Box verwenden wollen, um eine Festplatte mit einem Netzwerkkabel anzuschließen, wenn ich sie stattdessen direkt über Firewire 800 anschließen kann? Es schien einfach nur Ärger zu sein.

Ich hatte vor, es zu verkaufen, aber ich habe das Gefühl nie ganz überwunden, dass es eines Tages nützlich sein könnte (das war es nicht).

Ein paar Jahre später fühlte sich mein iMac etwas alt und langsam an und ich suchte nach Möglichkeiten, ihn schneller zu machen, ohne einfach einen neuen zu kaufen. SSDs gab es schon seit einigen Jahren, aber sie waren sehr teuer. Aber wenn man den Berichten Glauben schenken darf, dann hat sich der hohe Preis gelohnt. Sie kosten viel, aber eine SSD war immer noch günstiger als ein brandneuer iMac. Ich beschloss, es selbst auszuprobieren.

Anstatt einen komplett neuen iMac zu kaufen, habe ich die ursprüngliche rotierende Festplatte durch eine neue SSD ersetzt. Das geschah etwa im Jahr 2012 und war damals ziemlich radikal – ich musste einige Spezialwerkzeuge kaufen, eine individuelle Halterung für die SSD, damit sie in den Festplattensteckplatz des iMac passt, und eine Reihe von Anweisungen, die ich im Internet gefunden hatte, sorgfältig befolgen. Das Zerlegen eines iMac ist nichts für Laien.

Aber es funktionierte und das Ergebnis war revolutionär. Mein iMac fühlte sich nicht nur schneller an, er fühlte sich auch aufgeladen an. Es war schneller als die neuesten iMacs. Ich wurde sofort ein SSD-Evangelist. Ich konnte nicht glauben, wie sehr die sich drehende mechanische Festplatte den Rest meines Computers ausgebremst hatte. Ich hatte die Zukunft gesehen und die Zukunft waren SSDs. Und sie waren nicht nur viel schneller als eine herkömmliche Festplatte, sondern fühlten sich auch viel robuster und zuverlässiger an. Wenn eine SSD keine beweglichen Teile hätte, wäre die Wahrscheinlichkeit eines Ausfalls deutlich geringer, oder?

Trotz meiner Enttäuschung über die Geschwindigkeit des Drobo und seiner irritierenden Fähigkeit, meinen gesamten Computer alle 15 Minuten zum Stillstand zu bringen, hat er seinen Zweck viele Jahre lang erfüllt. Aber ich kam an den Punkt, an dem ich die vier Schächte mit 2-TB-Festplatten gefüllt hatte, und wieder einmal ging mir immer noch der Platz aus. Es fühlte sich an, als würde jedes Projekt, an dem ich arbeitete, immer mehr Speicherplatz verbrauchen.

Irgendwann im Jahr 2015 war ich im örtlichen Bürobedarfsgeschäft und sah, dass tragbare Festplatten jetzt in 8-GB-Größen erhältlich waren. Ein einzelnes Laufwerk, das etwa 400 US-Dollar kostet, könnte jetzt mit seinem 4-Laufwerk-RAID mehr als mein gesamtes Drobo speichern, und es wäre wahrscheinlich auch viel schneller! Ich kaufte eines, und der Drobo wurde vom Stromnetz getrennt und in die Garage gestellt, neben meine Schachtel mit Betacam SP-Kassetten.

Mir war durchaus bewusst, dass mein neues Laufwerk keine Redundanz bot, aber ich fand mich mit dem Gedanken ab, dass ich bei einem Ausfall die meisten meiner Archive immer noch auf dem Drobo hätte. Es wären nur neuere Projekte, die ich verlieren würde. Aber ich wusste, dass es an der Zeit war, nach etwas anderem zu suchen.

Obwohl ich einen Drobo gekauft hatte, weil mich seine einzigartigen Funktionen ansprachen, war Drobo definitiv nicht der einzige Hersteller, der Speicherprodukte an Verbraucher verkaufte. Weitere bekannte Marken waren LaCie, Western Digital, Qnap und Synology.

Vielleicht, weil es laut war und wenn die Laufwerke aus- und wieder hochgefahren wurden und alle möglichen Klicks und Geräusche von sich gaben, erinnerte der Drobo ständig daran, dass Festplatten ein mechanisches Gerät sind. Meine Erfahrung mit der SSD in meinem iMac hat mich überzeugt, dass SSDs die Zukunft sind. Spinnantriebe schienen einfach… altmodisch.

Es gab immer noch eine deutliche Kluft zwischen den von Einzelpersonen verwendeten Speichertypen und den größeren Unternehmensprodukten, die in Studios und Produktionsstätten verwendet wurden. Im Jahr 2017 konnten Sie in ein Bürobedarfsgeschäft gehen und eine tragbare 1-TB-Festplatte für etwa 100 US-Dollar kaufen. Aber 1 TB Speicher für ein Hochgeschwindigkeits-Unternehmens-SAN könnte immer noch weit über 1.000 US-Dollar kosten. Die Arten von Servern, Switches, Festplatten und die gesamte Netzwerk-/Speicherinfrastruktur, die in einem Raum voller Motion-Designer und Visual-FX-Künstler genutzt wurden, waren immer noch weit von allem entfernt, was man im örtlichen Einkaufszentrum kaufen würde.

Da ich in vielen verschiedenen Studios gearbeitet habe, wurde mir bewusst, wie wichtig Bandbreite und Netzwerkgeschwindigkeit für After Effects sind. Jedes Studio, in dem ich jetzt arbeitete, verfügte über eine Art gemeinsamen Netzwerkspeicher und einige von ihnen verfügten über Renderfarmen (was ich als großen Luxus ansah). Aber jedes Studio, in dem ich jemals gearbeitet habe, verwendete Gigabit-Ethernet, das eine theoretische maximale Datenrate von 125 Megabyte pro Sekunde hatte. After Effects und nichtlineare Bearbeitungssoftware könnten Daten problemlos schneller verarbeiten. Es war einfach, den Unterschied in den Renderzeiten zwischen lokalem Rendering und Netzwerk-Rendering zu messen, was zeigte, dass die Verlangsamung auf die Datenübertragungsgeschwindigkeit und nicht auf After Effects zurückzuführen war.

Ich hatte mit der Planung meiner Serie zum Thema „After Effects und Performance“ begonnen, und ein wichtiger Aspekt der Serie war der Fokus auf Bandbreite und die Wertschätzung, wie viele Daten After Effects verarbeiten kann. Es war etwas ärgerlich, das immer wiederkehrende Mantra „After Effects ist langsam … After Effects ist langsam …“ zu hören, obwohl es tatsächlich das Gigabit-Netzwerk des Studios war, das alles zurückhielt.

Während viele Künstler gerne viel Geld in teure GPUs steckten, um ihre 3D-Renderings zu beschleunigen, dachten nur wenige darüber nach, wie eine schnellere Speicherung ihre 2D-Renderings verbessern könnte. Die Kosten für eine SSD waren niedriger als die Kosten für eine High-End-GPU, und für alle, die hauptsächlich 2D-Arbeiten erledigen, könnte der Kauf einer SSD einen größeren Einfluss auf die Rendering-Geschwindigkeit und Leistung haben.

Aber SSDs hatten ihre eigenen Probleme – vor allem den Preis und die Kapazität. Im Vergleich zu einer normalen rotierenden Festplatte kosten sie viel mehr und speichern viel weniger.

Auch wenn mein Drobo in der Garage verblieben war, war ich nicht besonders motiviert, ihn auszutauschen. Während ich durch den Einbau der SSD die Lebensdauer meines iMac verlängert hatte, bin ich einige Jahre später auf ein neues Windows-Gerät umgestiegen. Es verfügte über eine interne Hochgeschwindigkeits-NVMe-SSD, die das Hauptlaufwerk war, mit dem ich gearbeitet habe. NVMe-Laufwerke sind sogar schneller als das SATA-Laufwerk, das ich in meinem iMac verwendet habe, und können Daten mit etwa 1500 Megabyte pro Sekunde übertragen. Als ich sie kaufte, war sie ungefähr so ​​schnell wie normale SSDs.

Zum Vergleich: Normales Gigabit-Ethernet erreichte eine Höchstgeschwindigkeit von etwa 125 Megabyte pro Sekunde und war damit mehr als zehnmal langsamer. Sogar der USB-3-Standard hatte eine maximale theoretische Geschwindigkeit von 625 Megabyte pro Sekunde, und die realen Geschwindigkeiten wären langsamer.

Daher wäre jedes externe Laufwerk, das ich gekauft habe, langsamer – viel langsamer – als die interne SSD, die ich gewohnt war. Da ich nicht viel von zu Hause aus arbeiten konnte, ging mir auch nicht gerade der Platz aus. Ich habe einfach meine interne SSD abgearbeitet und wenn die Projekte fertig waren, habe ich sie auf mein externes Laufwerk kopiert.

Es gab für mich keinen Anreiz, nach einem Ersatz für meinen Drobo zu suchen, wenn alles, was ich gekauft habe, langsamer sein würde als das System, das ich derzeit verwende.

Obwohl ich Drobo schon relativ früh eingesetzt habe, habe ich Alternativen nie wirklich Beachtung geschenkt. Ich wusste halb, dass ich irgendwann etwas Ähnliches brauchen würde, aber die schlechte Leistung meines Drobo schmerzte mich trotzdem ein wenig.

Ich habe mich immer gut mit IT-Supportmitarbeitern und anderen technikbegeisterten Leuten im Allgemeinen verstanden, und eines Tages, als ich in einem Studio arbeitete, fragte mich der IT-Leiter, ob ich „ein neues Spielzeug“ sehen wollte, das gerade eingetroffen war. Er zeigte mir eine hübsche Blackbox, die nicht groß genug für einen Computer war.

Was ich mir ansah, war ein brandneues Synology NAS, einfach FS1018 genannt. Synology stellte seit vielen Jahren NAS-Geräte für Verbraucher her und konkurrierte mit Drobo mit wohl leistungsstärkeren Produkten direkt. Mir war vage bewusst, dass es Unternehmen wie Synology und QNap gab, aber da ich bereits einen Drobo besaß, hatte ich nie viel darauf geachtet.

Aber der FS1018 war eine interessante Neuentwicklung. Das FS stand für Flash Storage. Dabei handelte es sich um ein NAS, das speziell für SSDs entwickelt wurde. Hier handelte es sich um ein relativ kleines Desktop-RAID zu einem Verbraucherpreis, das zwölf SSDs aufnehmen konnte, ohne dass eine einzige rotierende Festplatte in Sicht war. SSDs waren schon rasend schnell – aber 12 davon zusammen im RAID? Sicherlich muss das Ding SCHNELL sein!

Das dachte offensichtlich auch der IT-Leiter des Studios und war in der luxuriösen Lage, eins kaufen zu können, nur um es herauszufinden. Das Studio war auf Live-Events spezialisiert und Künstler wurden regelmäßig in verschiedene Länder der Welt entsandt, um vor Ort zu arbeiten. Der FS1018 schien die perfekte tragbare Lösung für eine kleine Anzahl von Künstlern zu sein, die an einem entfernten Ort zusammenarbeiten.

Ich hatte sofort das Gefühl, dass dies das Produkt war, nach dem ich gesucht hatte. Keine Probleme mehr mit der Geschwindigkeit, keine Probleme mehr mit klobigen, sich drehenden Festplatten, die sich aus- und wieder einschalten. Ich hatte befürchtet, dass ein externes Laufwerk langsamer sein würde als die interne SSD, die ich derzeit verwende, aber das würde sicherlich passen!

Meine Erfahrung beim Upgrade meines iMac war eine solche Offenbarung, dass ich nie gedacht hätte, dass ich jemals wieder eine rotierende Festplatte kaufen würde. Ich liebte SSDs und endlich war hier ein Desktop-RAID, das rund um SSDs in einer cool aussehenden Box entwickelt wurde.

Aber das größere Problem war der Preis. Das Basisgerät FS1018 war preisgünstig und nicht teurer als ein vergleichbares Desktop-NAS mit rotierenden Laufwerken. Allerdings waren die SSDs, die man für den Einbau benötigte, immer noch erschreckend teuer. Damals waren die größten (herkömmlichen) SSDs 2 TB groß, viel kleiner als die größten rotierenden Festplatten. Da die FS1018 jedoch 12 Laufwerke aufnehmen kann, würde eine Bestückung mit 2-TB-Laufwerken zu knapp 20 TB nutzbarem Speicherplatz führen, wenn man Formatierung und Redundanz berücksichtigt. 20 TB kamen mir wie eine Menge vor.

Ich schätzte schnell, dass der Kauf und die Bestückung mit 2-TB-Laufwerken über 12.000 US-Dollar kosten würden. Ich hatte keine 12.000 Dollar übrig, und selbst wenn, schien es mir eine Menge Geld für eine schicke Festplatte auszugeben. Aber die Preise für SSDs sanken, und ich folgte der gleichen Logik wie beim Kauf meines ersten Drobo – ich musste ihn nicht am ersten Tag auffüllen. Ich konnte mit drei Laufwerken beginnen und bei Bedarf weitere hinzufügen.

Die Synology FS1018 war im relativen Sinne ein Verbrauchergerät. Es war deutlich günstiger als ein industrielles SAN/Enterprise-NAS, aber mit einer Leistung, die mehrere Benutzer problemlos unterstützen sollte. Ich verstand, warum unser IT-Leiter davon fasziniert war. Dank der Geschwindigkeit von SSDs, insbesondere in RAID-Konfiguration, war die Leistung für den Preis unglaublich attraktiv. Und es war einigermaßen tragbar. Es war sicherlich eine interessante Option für alle, die über komplexere Lösungen auf Unternehmensebene für ein kleines Studio nachgedacht hatten. 12.000 US-Dollar sind für eine Einzelperson eine Menge Geld, wenn sie für 20 TB Speicher ausgeben. Wenn Sie jedoch ein Studio betreiben, das mehr als das Zehnfache dieses Betrags für ein Unternehmens-SAN ausgibt, sieht das überhaupt nicht nach viel aus.

Als Synology den FS1018 herausbrachte, hatte ich mich noch nicht nach anderen Optionen umgesehen. Ich wusste nicht einmal, wo ich anfangen sollte. Aber ein paar einfache Google-Suchen bestätigten, dass die Synology FS1018 zu diesem Zeitpunkt keine direkte Konkurrenz hatte. Jedes andere NAS-Gerät auf dem Markt nutzte rotierende Laufwerke, auch wenn einige von ihnen ein oder zwei SSDs zum Caching nutzen konnten. Ich war so davon überzeugt, dass SSDs die Zukunft sind, dass ich mich einfach nicht für alles interessierte, das rotierende Laufwerke verwendet. Im Jahr 2018 war Synology das einzige Unternehmen, das ein NAS anbot, das ausschließlich aus SSDs bestand. Es schien das zu sein, wonach ich gesucht habe. Ich beschloss, dass ich eines wollte. Ich musste nur herausfinden, wie ich dafür bezahlen sollte.

Ich habe darüber nachgedacht und mir einen raffinierten Plan ausgedacht. Ich würde ein Budget erstellen und im Voraus planen. Ich war es nicht gewohnt, so erwachsen zu sein, aber es war einen Versuch wert. Es ist schnell und einfach, ein Online-Bankkonto einzurichten und jeden Monat eine automatische Überweisung durchzuführen.

Etwa zehn Jahre zuvor zögerte ich, einen Drobo der ersten Generation zu kaufen, und jetzt zögerte ich, ein FS-Modell der ersten Generation von Synology zu kaufen. Ich ging davon aus, dass ich bereit sein würde, es zu kaufen, wenn Synology ein aktualisiertes Modell herausbringt. Vorerst könnte ich mit meinem externen 8-TB-Laufwerk überleben und beten, dass es nicht kaputt geht.

Als sich Covid auf der ganzen Welt ausbreitete, veränderte es alles für alle. Unter anderem hat es mich davon abgehalten, einen teuren Fehler zu machen. Ich habe die Synology FS1018 nicht gekauft.

Wie viele andere Menschen war die unmittelbarste Auswirkung von Covid, dass ich begann, regelmäßig von zu Hause aus zu arbeiten. Die Arbeit von zu Hause aus hat einige meiner Prioritäten verändert. Erstens fiel mir auf, dass ich viel mehr Speicherplatz verbrauchte, als ich es gewohnt war. Vor Corona bedeutete die Arbeit als Freiberufler, in verschiedene Studios zu reisen und deren Ausrüstung – und deren Lagerung – zu nutzen. Alle von mir aufbewahrten Archive oder Backups waren normalerweise Projektdateien (ziemlich klein) oder eine Auswahl „endgültiger“ Quicktimes. Ich hatte Archive aus etwa 20 Jahren Arbeit, die ordentlich auf eine 8-TB-Festplatte passten.

Aber jetzt, wo ich von zu Hause aus arbeitete, stellte ich fest, dass einzelne Projekte alles von 100 GB bis 1 TB beanspruchen konnten. Mir ging der Platz aus, und zwar schnell. Es fühlte sich an, als wäre ich über 10 Jahre in der Zeit zurückgereist, mit einem Schreibtisch voller tragbarer Festplatten, die ich je nach Bedarf ein- oder aussteckte. In einigen Fällen schickten mir Studios tragbare Festplatten mit Filmmaterial darauf zu, und am Ende benutzte ich dieselben Laufwerke zum Arbeiten, weil ich nicht über den internen Speicherplatz verfügte, um alles zu kopieren.

Durch die Arbeit von zu Hause aus war ich auch für die Daten verantwortlich, die ich produzierte. Ich machte mir Sorgen, dass Projekte durch einen Festplattenausfall verloren gehen könnten. Ich hatte Visionen von einem Sturm, der einen Stromausfall verursachte und nicht nur Zeit beim Arbeiten verlor, sondern auch feststellte, dass meine Festplatten durch den Stromausfall beschädigt waren. Ich habe einen Teil meines vorhandenen Budgets für den Kauf einer USV verwendet, damit ich, falls der Strom jemals ausfallen sollte, zunächst alles sparen und mein System ordnungsgemäß herunterfahren könnte.

Da die Branche unter den Auswirkungen der Covid-Pandemie litt, verlangsamten sich die Projekte und damit auch die Einnahmen. Wie alle anderen hatte auch ich keine Möglichkeit vorherzusagen, welche langfristigen wirtschaftlichen Auswirkungen Covid auf unsere Branche haben würde.

Es schien keine gute Idee zu sein, Tausende von Dollar für neue Hardware auszugeben.

Ich befand mich in einer frustrierenden Situation. Ich befand mich in einer Situation, in der ich einfach nicht über genügend Festplattenspeicher verfügte, um meine Arbeit erledigen zu können, und dennoch hatte ich nicht das Gefühl, bereit zu sein, Tausende für eine langfristige Lösung auszugeben. Aber einfach ins Einkaufszentrum zu gehen und noch eine tragbare Festplatte zum Arbeiten zu kaufen, schien der falsche Schritt zu sein.

Mit etwas Glück stieß ich auf eine Agentur, die gerade schloss und alles verkaufte – darunter Stühle, Tische, jede Menge iPads und ein paar Festplatten. Sie besaßen ein Western Digital NAS mit zwei Einschüben, das kaum genutzt worden war, und verkauften es zu einem Schnäppchenpreis. Es enthielt zwei 6-TB-Laufwerke für insgesamt 12 TB Speicher – die Laufwerke konnten jedoch als RAID 1 konfiguriert werden, um Redundanz zu bieten. Es war eine Gelegenheit, ein NAS der Einstiegsklasse zu einem günstigeren Preis zu kaufen, als eine neue tragbare Festplatte kostete. Es schien eine gute kurzfristige Lösung zu sein.

Obwohl es sich um ein recht einfaches Gerät handelte, passte das Western Digital NAS perfekt zu mir. Ich war erleichtert, über ein gewisses Maß an Redundanz zu verfügen, damit ich nicht alles verlieren würde, wenn ein Laufwerk ausfällt. Es war eine gute Einführung in das, was ein NAS ist und wie es über webbasierte Schnittstellen funktioniert. Ich kaufte einen Netzwerk-Switch für 50 US-Dollar und konnte meine Mac- und Windows-Rechner gleichzeitig verbinden – etwas, das so nahtlos und produktiv war, dass ich mich fragte, ob ich vor all den Jahren beim Drobo Share hätte durchhalten sollen.

Ich rendere regelmäßig After Effects-Projekte auf meinem Windows-Rechner, während ich Syntheyes-Tracking auf meinem Mac durchführe. Beide Maschinen lesen dieselben Dateien im selben Ordner. Es funktioniert so gut und reibungslos, dass ich nicht glauben kann, dass ich Jahre damit verbracht habe, verschiedene Dateien auf USB-Sticks zu kopieren, um sie zu verschieben. Mein Heim-Setup verfügte jetzt über den gleichen Funktionsumfang, den ich von allen Studios erwartet hatte, für die ich gearbeitet hatte. Es fühlte sich gut an.

Und schließlich hat Covid noch etwas verändert: die Freizeit. Als Projekte und Arbeit im Allgemeinen versiegten, nahm ich mir die Zeit, alle meine alten Laufwerke zu sichten und alles zu ordnen. Ich wusste, dass das Western Digital NAS nur eine kurzfristige Lösung war, aber ich dachte mir, dass ich, wenn ich anfangen würde, mich zu organisieren und dann, wenn ich etwas Dauerhafteres kaufe, einfach alles kopieren könnte.

Ich hatte dem NAS-Markt nie viel Aufmerksamkeit geschenkt, und bis ich den FS1018 sah, wusste ich nicht viel über Synology. Ich ging davon aus, dass sie ihre Produkte regelmäßig aktualisieren würden, genau wie andere Technologieunternehmen. Meiner Meinung nach war das größte Manko des FS1018 das Fehlen von 10-Gig-Ethernet – wie konnte ein so schnelles Netzwerkgerät nicht über integriertes 10-Gig-Ethernet verfügen? Es bestand immer die Möglichkeit, dass ein aktualisiertes Modell standardmäßig mit mehr RAM, einer schnelleren CPU und 10-Gigabit-Ethernet auf den Markt kommt. Das Modell der 2. Generation wäre das Richtige für mich.

Hin und wieder habe ich auf der Synology-Website nachgeschaut, ob es Neuigkeiten zu Updates gibt. Mit der Zeit habe ich es vergessen. Synology schien seine Produkte nicht sehr oft zu aktualisieren, und da es für mich keine Priorität hatte, vergaß ich es monatelang. Ich wollte nicht unbedingt viel Geld ausgeben. Irgendwann – nach mehreren Jahren – sah ich endlich die Pressemitteilung, auf die ich gewartet hatte. Synology hat eine neue FS-Einheit herausgebracht.

Aber das Upgrade – wenn man es so nennen kann – war nicht das, was ich erwartet hatte.

Etwa Anfang 2022 brachte Synology ein neues Einstiegsmodell seiner FS-Reihe auf den Markt, den FS2500. Dabei handelte es sich jedoch nicht um eine aktualisierte Version des FS1018, sondern um einen höher ausgestatteten Ersatz. Der FS1018 wurde eingestellt.

Der neue FS2500 ist ein Rackmount-Gerät, keine Desktop-Box. Es ist in jeder Hinsicht leistungsstärker als das FS1018 – schnellere CPU, mehr RAM, integriertes 10-Gig-Ethernet. Es verfügt sogar über redundante Netzteile.

Aber der Preis spiegelt dies wider – die Basiseinheit ist mehr als doppelt so teuer wie der ältere FS1018. Der FS2500 ist kein Gerät für einen einzelnen Benutzer, der zu Hause arbeitet. Ich halte es nach wie vor für eine interessante Option für kleine Studios und immer noch für eine wirtschaftliche Alternative zu NAS- und SAN-Systemen der Enterprise-Klasse. Aber es ist kein Verbrauchergerät.

In den letzten Jahren hatte meine Bank automatisch jeden Monat Geld für neue Hardware zurückgelegt. Aber jetzt wurde die Hardware, für die ich gespart hatte, einfach eingestellt und es gab keinen sofortigen Ersatz. Es war Zeit, nach einer anderen Lösung zu suchen.

Ursprünglich wollte ich aufgrund einer Vermutung einen FS1018. Ich ging einfach davon aus, dass SSDs die Zukunft seien und rotierende Festplatten altmodisch seien. Abgesehen davon, dass ich mich umschaute, ob es auch andere Hersteller mit reinen SSD-Produkten gibt, hatte ich nie konkrete Nachforschungen angestellt.

Meine andere Annahme war, dass jedes externe Gerät langsamer sein würde als die interne SSD, mit der ich arbeitete – das war auch der Grund, warum ich zögerte, tatsächlich etwas zu kaufen.

Da der FS1018 jedoch eingestellt wurde, brauchte ich einen neuen Plan und suchte zum ersten Mal Rat. Ich fragte Freunde und Arbeitskollegen, schaute mir Online-Bewertungen an und schaute mir viele YouTube-Videos an, die von NASCompares gepostet wurden – einer unschätzbar wertvollen Ressource.

Sehr schnell wurde mir klar, dass einige meiner Grundannahmen einfach falsch waren. Erstens war klar, dass rotierende Festplatten eine lange Zukunft vor sich hatten, insbesondere im Hinblick auf die Kosten pro Gigabyte. Was mich jedoch noch überrascht, ist, dass der Geschwindigkeitsunterschied zwischen einem externen NAS und meiner internen SSD möglicherweise nicht so groß ist, wie ich erwartet hatte.

Bei normaler, alltäglicher Nutzung erreicht meine interne NVMe-SSD einen Benchmark von etwa 1.500 Megabyte pro Sekunde. Aber 10-Gigabit-Ethernet hat ein theoretisches Maximum von 1.250 Megabyte pro Sekunde. Der Unterschied ist nicht so groß. Und obwohl ich befürchtete, dass rotierende Festplatten so viel langsamer sind als eine SSD, könnten die meisten NAS-Boxen SSDs als Cache verwenden, um die Geschwindigkeit zu erhöhen. Und je mehr Laufwerke im NAS verwendet werden, desto höher sind die Übertragungsgeschwindigkeiten.

Wenn ich also 10-Gig-Ethernet in die Gleichung einbeziehe, sollte der Wechsel von einem internen NVMe zu einem externen NAS nicht so schmerzhaft sein, wie ich zuerst gedacht hatte.

Aber es war der Kapazitätsunterschied, der mich letztendlich überzeugte. SSDs sind größer und billiger geworden, aber auch rotierende Laufwerke sind geworden. Als ich mir die FS1018 zum ersten Mal ansah, waren die größten regulären SSDs 2 TB groß. Mittlerweile sind 4-TB-SSDs weit verbreitet. Aber auch rotierende Festplatten wurden immer größer und billiger. Für den gleichen Preis wie eine 4-TB-SSD könnten Sie ein 14-TB-Spinning-Laufwerk kaufen.

Da ich jetzt von zu Hause aus arbeitete, brauchte ich viel mehr Speicherplatz als früher. Vor vier Jahren dachte ich, dass 20 TB Speicher auf absehbare Zeit ausreichen würden. Nun, wahrscheinlich hatte ich so viel auf verschiedenen tragbaren Laufwerken auf meinem Schreibtisch herumliegen.

Der Kauf eines NAS, das nur SSDs verwendet, war nicht mehr realistisch.

In vielen NAS-Testberichten, die ich mir angesehen habe, wurde gefragt, ob das Modell X für die 4K-Bearbeitung geeignet sei. Es hört sich so an, als wären viele Videobearbeiter an NAS-Rezensionen interessiert, und ich kann verstehen, warum. Darauf habe ich immer geachtet, weil ich das Gefühl hatte, dass Leute, die mit 4K-Videos arbeiten, ähnliche Anforderungen haben wie ich, allerdings mit einer Ausnahme.

Obwohl das durchschnittliche Desktop-NAS rotierende Laufwerke verwendet, haben viele von ihnen auch die Möglichkeit, eine SSD als Cache zu verwenden, wodurch Daten natürlich viel schneller übertragen werden können. Da After Effects schon so lange über einen Festplatten-Cache verfügt, war ich mit dem Konzept vertraut und ging davon aus, dass ein SSD-Cache genauso funktionieren würde. Häufig verwendete Dateien würden auf der SSD zwischengespeichert und könnten viel schneller aufgerufen und übertragen werden als von den rotierenden Laufwerken. Dies würde sowohl die Latenz als auch die Rohdatenraten verbessern.

Aber wenn es um die Videobearbeitung geht, insbesondere wenn man mit größeren Videodateien arbeitet, haben mehrere Rezensenten darauf hingewiesen, dass ein SSD-Cache kaum oder gar keinen Unterschied macht. Das Problem bei der Videobearbeitung besteht darin, dass Filmmaterialdateien so groß sein können, dass nur wenige Clips den Cache schnell füllen können, was ihren Nutzen zunichte macht.

Ich konnte das verstehen, da ich an Projekten gearbeitet habe, bei denen die einzelnen Aufnahmen einer hochauflösenden Kamera jeweils zwischen 20 und über 100 GB groß waren. Wenn Ihr SSD-Cache nur ein paar Hundert GB groß ist, Sie es aber mit einzelnen Dateien zu tun haben, die durchschnittlich etwa 50 Gigabyte groß sind, kann es leicht passieren, dass das Cache-System überlastet wird.

Aber in meinem Fall sind die meisten Assets, mit denen ich arbeite, EXR-Sequenzen. Während mir regelmäßig rohe Kameraaufnahmen geliefert werden, die RIESIG sein können, konvertiere ich als Erstes die ausgewählten Clips in zugeschnittene EXR-Sequenzen. Der Umgang mit vielen kleinen Dateien im Gegensatz zu einer riesigen Datei ist genau das, wofür Caches gut sind. Obwohl ich die Online-Warnungen zur Kenntnis genommen habe, dass SSD-Caches nicht für alle Videoeditoren eine gute Sache sind, bin ich zu dem Schluss gekommen, dass ein SSD-Cache für jeden, der mit 3D- und Bewegungsgrafiken arbeitet, sehr nützlich wäre.

Mehrere Jahre lang hatte ich darauf gewartet, ein verbessertes SSD-NAS zu kaufen, aber da das keine Option mehr war, brauchte ich einen neuen Plan. Und ich musste schnell handeln, denn selbst meine neue Western Digital-Festplatte war fast voll. Es würde nur ein paar Monate dauern, bis ich wieder in der Situation war, dass ich nicht mehr genügend Speicherplatz zum Arbeiten hatte. In den letzten Jahren hatte ich auf Synology gewartet, aber jetzt, da dieser Plan gescheitert war, gab es keinen Grund, noch länger zu warten.

Als ich versuchte herauszufinden, was ich kaufen sollte, wurde mir klar, dass ich drei grundlegende Entscheidungen treffen musste: Welche Art von NAS, welche Art von Laufwerken und welche Art von 10-Gigabit-Netzwerk-Switch.

In mancher Hinsicht war das NAS die einfachste Entscheidung. Ich war auf der Suche nach einem normalen Desktop-NAS mit rotierenden Laufwerken und es gibt jede Menge Informationen und Rezensionen zum Desktop-NAS-Markt. Die Leute scheinen Bewertungen zu lieben und das Internet stellt sie gerne zur Verfügung.

Die Gesamtgeschwindigkeit stand immer noch an erster Stelle, da ich den Rückschritt meines internen NVMe-Laufwerks fürchtete. Also habe ich mir zunächst Desktop-NAS-Geräte angesehen, die über 10-Gigabit-Ethernet verfügen. In Bezug auf Redundanz und Kapazität ging ich davon aus, dass ich mindestens 6 Laufwerke benötigen würde. Ich hatte immer vor, das NAS mit zwei redundanten Laufwerken einzurichten, daher wäre ein NAS mit vier Einschüben zu klein gewesen.

Bei der Suche nach einem 6-Bay-NAS mit 10-Gigabit-Ethernet stieß man schnell auf die Synology 1621xs+, und es scheint ein ziemlich gutes Gerät zu sein. Es gibt jede Menge positive Bewertungen und der YouTube-Kanal „NAS Compares“ erhielt positive Bewertungen. Aber bei einigen grundlegenden Recherchen habe ich herausgefunden, dass es sich hierbei um eine Premium-Version des einfacheren 1621+ handelte (die ohne das xs). Die Synology 1621+ verfügte nicht über so viel RAM oder 10-Gigabit-Ethernet, aber man konnte sie so aufrüsten, dass sie es hat. Nachdem man es ein wenig aufgepeppt hatte, um es an die Spezifikationen des 1621xs+ anzupassen, waren die Kosten tatsächlich ungefähr gleich. Das war etwas frustrierend, denn ich hätte erwartet, dass Synology die xs+-Version etwas ansprechender macht. Wenn der Preisunterschied zwischen dem 1621xs+ und dem 1621+ mit allen Extras größer gewesen wäre (d. h. wenn das xs+ billiger gewesen wäre), hätte ich es gekauft.

Ich hatte immer noch Angst vor der allgemeinen Übertragungsgeschwindigkeit, und als ich mich mit einem meiner Freunde darüber unterhielt, schlug er mir vor, mich mit der Link-Aggregation zu befassen. Bei der Link-Aggregation nutzen Geräte mehrere Netzwerk-Ports, um ihre Übertragungsgeschwindigkeit zu erhöhen. Es ist ein bisschen wie RAID, aber für Netzwerke. Netzwerkdaten werden über mehrere Ports verteilt und über mehrere Kabel gesendet, wodurch sich die Gesamtübertragungsraten erhöhen. Die Verwendung von 2 Ports kann die Geschwindigkeit verdoppeln, 4 Ports können sie vervierfachen und so weiter. Während 10-Gig-Ethernet eine theoretische Höchstgeschwindigkeit von etwa 1.250 Megabyte pro Sekunde hat, kann diese durch Link-Aggregation und 2 Netzwerk-Ports verdoppelt werden. 2.500 Megabyte pro Sekunde sind mit leistungsstarken NVMe-Laufwerken vergleichbar und im Vergleich zu meiner älteren SSD sogar noch schneller.

Für mich waren das großartige Neuigkeiten. Die Angst, mein System zu aktualisieren, aber alles langsamer zu laufen, begann zu schwinden. Link-Aggregation schien meine Probleme zu lösen – aber es gab ein Problem. Link-Aggregation wird nur auf High-End-Switches unterstützt. Ich bräuchte einen verwalteten Switch, nicht nur ein einfaches generisches Modell. Ich wusste bereits, dass ich beim Kauf eines 10-Gig-Ethernet-Geräts meinen Heimnetzwerk-Switch auf ein 10-Gig-Ethernet-Modell aufrüsten müsste, aber es würde nicht so günstig oder einfach sein, wie ich gehofft hatte.

Obwohl die Synology 1621xs+ standardmäßig mit einem 10-Gigabit-Ethernet-Anschluss ausgestattet war, verfügte sie nur über einen Anschluss. Dies schloss eine Link-Aggregation aus. Wenn ich alternativ das günstigere Modell 1621+ kaufe, könnte ich eine Dual-Port-10-GB-Netzwerkkarte installieren. Dies würde mir die Möglichkeit zur Link-Aggregation geben und wäre insgesamt günstiger. Es schien die bessere Wahl zu sein.

Und dann wurde mir dank Internetrezensionen klar, dass Synology auch ein 8-Bay-NAS namens 1821+ herstellte. Es war im Wesentlichen dasselbe wie das 1621+, verfügte jedoch über zwei zusätzliche Laufwerksschächte. Der Kostenunterschied war ziemlich gering. Als ich alle Extras zusammengerechnet hatte – einschließlich einer 10-GB-Ethernet-Karte, mehr RAM und SSD-Cache – waren die Gesamtkosten des aufgemotzten 1821+ ungefähr die gleichen wie die des 1621xs+, aber ich hatte zwei zusätzliche Laufwerksschächte.

Ich habe einen meiner vertrauenswürdigen Freunde gefragt: Gibt es einen Grund, sich kein 8-Bay- statt eines 6-Bay-Geräts zuzulegen? Und seine Antwort war: Versuchen Sie immer, die meisten Buchten zu wählen. Es machte Sinn. Ich habe dieses Gerät für die Zukunft gekauft. Ich hoffe, dass es länger als 7 Jahre hält. 8 Einschübe ermöglichen nicht nur mehr Kapazität, sondern auch höhere Geschwindigkeiten. Mit 8 Laufwerken ist die Arbeit schneller erledigt als mit 6.

Nachdem ich diesem Gedankengang gefolgt war, hatte ich mich entschieden, welches NAS ich kaufen sollte – die Synology 1821+, die ich mit zwei 10-Gigabit-Ethernet aufrüsten würde.

Ich füge hinzu, dass ich mir auch andere Marken und vergleichbare Produkte angeschaut habe, wobei ich mir vor allem das Qnap-Sortiment genau angeschaut habe. Letztendlich habe ich mich aber für die Synology entschieden.

Ich wusste nicht, dass es so viele Optionen mit Festplatten gibt, bis ich sie kaufte. Abgesehen von den verschiedenen Marken, darunter Seagate und Western Digital, gab es verschiedene Sortimente. Western Digital bietet 6 verschiedene Festplattenserien an, die nach Farben benannt sind. Auch Seagate bietet mehrere Optionen, darunter die „Ironwolf“-Reihe. Einige Laufwerke wurden jedoch als „Pro“ bezeichnet, andere als „Enterprise“ und wieder andere nur als „NAS“. Was ist der Unterschied zwischen einer „NAS“-Festplatte und einer „Enterprise“-Festplatte? Ich hatte keine Ahnung.

Was noch verwirrender war, war der Preis. Es kam mir so vor, als wäre der Preis jedes Mal anders, wenn ich ihn überprüfte. Die Festplattenpreise schienen stärker zu schwanken als der Aktienmarkt. Und oft ergab es keinen Sinn. Für mich hörte es sich so an, als ob eine „Enterprise“-Festplatte teurer sein sollte als eine einfachere „Pro“-Festplatte – aber oft war das nicht der Fall.

Ich habe es nicht verstanden.

Monatelang fand ich das äußerst verwirrend. Ich las Artikel und schaute mir YouTube-Videos an und tröstete mich damit, dass viele andere genauso verwirrt waren wie ich. Da Rechenzentren Festplatten der „Enterprise“-Klasse in so großen Mengen kaufen, sind sie am Ende offenbar oft günstiger als die Festplatten, die für Verbraucher bestimmt sind. Die Preisschwankungen stellen das aktuelle Marktangebot und die aktuelle Marktnachfrage dar. So kontraintuitiv es auch klingen mag, die günstigeren Festplatten können eine bessere Option sein als die teureren.

Irgendwann fing ich an, mich den „Gold“-Laufwerken von Western Digital zuzuwenden. Sie wurden als „Enterprise“ eingestuft und hatten eine hervorragende MTBF – oder mittlere Zeit zwischen Ausfällen. Das bedeutete, dass sie zuverlässig waren. Sie waren – jedenfalls zu der Zeit, als ich sie kaufte – günstiger als Verbraucherlaufwerke gleicher Größe.

Irgendwann wurde mir klar, dass ich Monate damit verbringen könnte, die Vor- und Nachteile der einzelnen Typen abzuwägen, und letztendlich würde es wahrscheinlich keine Rolle spielen. Sobald mein neues NAS einmal betriebsbereit war, würde ich nie wieder darüber nachdenken. Ich wollte mich nicht daran hängen lassen, also habe ich mich für Western Digital Gold-Laufwerke entschieden und mir darüber keine Sorgen gemacht.

Nachdem ich mich nun für ein NAS und die Laufwerke entschieden hatte, brauchte ich zur Vervollständigung des Pakets nur noch einen 10-Gig-Ethernet-Switch. Aber hier fiel es mir wirklich schwer. Tatsächlich ist das der Teil, der mich verlangsamt hat. Ich habe Monate damit verbracht, mir 10-Gig-Ethernet-Switches anzusehen.

Mir gefiel die Idee der Link-Aggregation, vor allem mit Blick auf die Zukunft. Wer kann sagen, was in den nächsten 7 Jahren passieren wird? Vielleicht kommt irgendwann der Punkt, an dem ich mehrere Computer und eine Mini-Renderfarm habe. Ich wollte keinen kurzsichtigen Kauf tätigen.

Andererseits waren verwaltete Switches, die Link-Aggregation unterstützen, sehr teuer – in manchen Fällen habe ich einen Produktfinder auf einer Website durchgesehen und mir wurde etwas empfohlen, das Zehntausende von Dollar kostete. Auch wenn es 10-Gig-Ethernet schon seit langem gibt, scheint es, als sei es noch nicht ganz auf dem Verbrauchermarkt angekommen.

Es gab eine Reihe einfacher, nicht verwalteter 10-Gig-Switches, die jedoch keinerlei Kontrolle boten. Sie waren auch nicht supergünstig. Als ich meinen Gigabit-Ethernet-Switch kaufte, kostete meine vertrauenswürdige Netgear-Box weniger als 50 US-Dollar. Aber jetzt kostete selbst ein einfacher, nicht verwalteter 10-Gig-Switch ein paar Hundert. Wenn ich Link-Aggregation wollte, müsste ich noch einmal mehr bezahlen. Aber wie viel war es wert?

Im gesamten Prozess empfand ich dies als die schwierigste Entscheidung. Ich habe es mir jeden zweiten Tag anders überlegt. Sollte ich vorerst einfach einen günstigen Basis-Switch kaufen und, wenn ich etwas Schnelleres benötige, in Zukunft ein Upgrade durchführen? Oder sollte ich jetzt mehr bezahlen und einfach alles zukunftssicher machen?

Ich hatte mir monatelang müßig potenzielle Produkte angesehen und hatte eine Seite voller gekritzelter Notizen. Letztendlich konnte ich auf dem Markt nur drei verwaltete 10-Gigabit-Ethernet-Switches finden, die weniger als 1.000 US-Dollar kosteten. Eines davon war in Australien nicht vorrätig, sodass es nur noch zwei Exemplare gab. In mancher Hinsicht macht es einfacher, nur zwei Möglichkeiten zu haben.

Ich hatte gehofft, weniger als 500 US-Dollar für einen 10-Gig-Switch auszugeben. Es schien einfach eine schöne, runde Zahl zu sein. Ich habe Monate damit verbracht, gebrauchte Optionen auszuprobieren, aber es kam nichts Passendes dabei. Schließlich beschloss ich, mir keine Sorgen mehr zu machen und einfach einen Kauf zu tätigen. Es ist nun über 4 Jahre her, seit ich den FS1018 zum ersten Mal gesehen habe, und ich brauchte bald mehr Speicherplatz.

Ich habe mich für einen verwalteten Qnap-Switch der Einstiegsklasse entschieden, weil ich dachte, dass die Switches von Qnap wahrscheinlich gut zu meinem Setup passen, da Qnap auch NAS-Geräte herstellt. Der Qnap M408-4C hatte gute Bewertungen, kombinierte 10-Gigabit-Ports mit vorhandenem Gigabit-Ethernet und unterstützte vor allem Link-Aggregation. Es hat mehr gekostet, als ich gehofft hatte, aber gleichzeitig war ich froh, etwas zu kaufen, über das ich viele Jahre lang nicht mehr nachdenken musste.

Es gibt viele Kaninchenlöcher im Internet, und wenn es um 10-Gigabit-Ethernet geht, hängt einer davon mit der Art der Anschlüsse und Kabel zusammen. Im Gegensatz zu normalem Ethernet, das RJ-45-Kabel und -Anschlüsse verwendet, gibt es für 10-Gig-Ethernet mehrere verschiedene Optionen. Ich fing an, mich damit zu befassen, gab aber schließlich auf. Ich habe Besseres zu tun, als über Kabel und Stecker nachzudenken.

Der von mir gewählte Qnap-Switch unterstützt tatsächlich beide Typen, sodass ich mir über dieses spezielle Problem keine Sorgen machen musste.

Nachdem ich mich auf meine Einkaufsliste festgelegt hatte, war es ziemlich nervenaufreibend, tatsächlich den Knopf zu drücken und alles zu kaufen. Ich hatte alles im Warenkorb, konnte mich aber nicht dazu durchringen. Als ich tief durchatmete und mich schließlich zur Kasse durchklickte, war so viel Zeit vergangen, dass sich mein Warenkorb automatisch geleert hatte und ich alles noch einmal hinzufügen musste.

Es war fast genau vier Jahre her, seit ich den FS1018 gesehen und beschlossen hatte, ein Budget für ein richtiges NAS festzulegen. Jetzt hatte ich mich für ein völlig anderes System entschieden, nachdem ich monatelang Rezensionen, Artikel gelesen und YouTube-Videos angeschaut hatte.

Beim Zusammenbau aller Teile kam es zu einigen Verzögerungen, hauptsächlich weil ich 8 Laufwerke bestellt hatte und mein Lieferant nur 2 auf Lager hatte. Doch nach ein paar Wochen war alles da und der Boden meines Büros war mit Kisten bedeckt.

Ich war mitten in einem Projekt und wusste, dass ich nicht versuchen sollte, alles vor Ablauf der Lieferfrist zu aktualisieren. Ich hatte vier Jahre gewartet, ein paar Tage mehr würden keinen Unterschied machen.

Die Einrichtung war überraschend – fast enttäuschend – einfach. Ich dachte, dass die Einrichtung und der Austausch alles einen Tag dauern könnte. Am Ende hat es weniger als eine Stunde gedauert. Ich war überrascht, dass ich nicht einmal einen Schraubenzieher brauchte, um die Laufwerke im NAS zu installieren – alles rastete ein. Die RAM-Upgrades, der SSD-Cache und die 10-GB-Ethernet-Karten waren alle in nur wenigen Minuten installiert. Es war super einfach.

Auch das Ausstecken meines alten Netgear-Switches und der Austausch gegen den neuen Qnap verlief völlig problemlos. Da ein Hybrid-Switch, der sowohl Standard-Gigabit-Ethernet als auch 10-Gigabit-Ethernet akzeptiert, für mich gut funktionierte, konnte ich ohne Probleme einfach meine vorhandenen Kabel anschließen und die 10-Gigabit-Kabel zum neuen NAS verlegen.

Nach dem Einschalten funktionierte alles genau wie erwartet, und nachdem ich die Software eingerichtet hatte – dank einiger YouTube-Tutorials – konnte ich mit dem Kopieren von Dateien beginnen. Ich habe mit meinem 6-TB-NAS angefangen und war wieder einmal überrascht, wie schnell alles kopiert wurde. Ich war dankbar, dass ich bereits Zeit damit verbracht hatte, viele meiner älteren Dateien zu sortieren.

Ich habe alle tragbaren Festplatten und USB-Sticks, die ich besaß, durchgesehen und sichergestellt, dass alle Dateien, die ich hatte, auf das NAS übertragen wurden. Bisher war mein Hauptarbeitslaufwerk die interne 2 TB NVMe SSD. Darin befanden sich alle Projekte, an denen ich in den letzten Monaten gearbeitet hatte. Ich hatte sie auf das neue NAS kopiert, aber der nächste Schritt bestand darin, das Laufwerk zu löschen und es als After Effects-Cache-Datenträger zu verwenden.

Nur ein paar Jahre zuvor hatte ich gedacht, dass ein 20-TB-NAS jahrelang ausreichen würde. Aber als ich damit fertig war, alles, was ich bereits hatte, auf mein neues NAS zu kopieren, hatte ich bereits etwa 16 TB Speicherplatz verbraucht. Es waren nicht nur meine Arbeitsakten und Karrierearchive. Dinge wie das Sichern meines Laptops und das Einrichten einer Zeitmaschine, das Sichern von Telefonen, iPads usw. trugen alles zum Gesamtergebnis bei. Es gab ältere Projekte, die sich auf Laufwerken befanden, die ich nie in meinen Haupt-„Backups“ konsolidiert hatte. Insgesamt hatte ich viel mehr Sachen, als ich dachte.

Im Nachhinein bin ich froh, dass ich den Weg eingeschlagen habe, dank der Verwendung rotierender Laufwerke und nicht nur von SSDs viel mehr Kapazität zu haben. Es ist schön zu wissen, dass in einem System mit Redundanz von zwei Laufwerken alles vorhanden und einigermaßen gut sortiert ist.

Ich war überrascht, wie schnell es gedauert hat, alles zum Laufen zu bringen. Der letzte Schritt bestand darin, mein internes NVMe-Laufwerk zu formatieren und es als After Effects-Festplattencache zuzuweisen.

Bevor ich jedoch diesen letzten Schritt tat, war noch Zeit für einen Benchmark. Ich hatte jahrelang befürchtet, dass jedes externe Laufwerk, das ich verwende, langsamer sein würde als meine interne SSD. Diese Annahme war der Hauptgrund, warum ich den Kauf eines richtigen, redundanten NAS so lange aufgeschoben habe. Aber jetzt war es an der Zeit, es wirklich herauszufinden.

Da ich einen SSD-Cache im NAS installiert hatte, wusste ich, dass ein regulärer Benchmark nicht die reale After Effects-Nutzung widerspiegeln würde. Ich habe den AJA-Benchmark ein paar Mal ausgeführt und die Ergebnisse schwankten, aber ich schien konstante Übertragungsraten zwischen 600 und 800 Megabyte pro Sekunde zu erzielen. Beim Kopieren großer Dateistapel kann die Übertragungsrate jedoch gelegentlich einen Spitzenwert von über 1000 erreichen. Insgesamt bin ich mit der Geschwindigkeit von allem sehr zufrieden, wollte aber trotzdem wissen, wie ein echtes After Effects-Projekt ablaufen würde.

Das letzte Projekt, das ich auf meinem internen Laufwerk abgeschlossen habe, war ein guter Kandidat für ein Benchmarking, da es typisch für die Art von Projekten war, die ich regelmäßig durchführe. Es handelte sich um ein 4K-Projekt, das viele Ebenen 3D-gerenderter Assets umfasste. Die 3D-Ebenen wurden alle als EXR-Sequenzen gerendert.

Ich habe mit dem vorhandenen Projekt auf dem internen Laufwerk begonnen, mein System geleert, Caches usw. geleert und von Grund auf gerendert, ohne dass auf meinem Rechner etwas anderes lief. Die Renderzeit betrug ca. 3 Stunden. Dann habe ich alles noch einmal bereinigt/gelöscht und erneut gerendert. Die Renderzeit war mit 15 Sekunden gleich. Es schien ein genaues Ergebnis zu sein.

Dann habe ich alles erneut gelöscht und gelöscht und das gleiche Projekt von meinem neuen NAS gerendert. Das Rendern dauerte etwa 2 Stunden und 45 Minuten – also etwa 15 Minuten schneller oder etwa 10 % schneller. Das war völlig unerwartet. Ich hatte keine Ahnung, warum das Rendern vom externen NAS schneller sein würde als von der internen SSD. Ich habe alles gelöscht/gelöscht und erneut gerendert. Gleiches Ergebnis, innerhalb von 15 Sekunden.

Ich habe keine Erklärung für dieses Rätsel, aber es ist ein schönes Rätsel.

Seit Corona arbeite ich permanent von zu Hause aus. Es ist wichtig, ein Heimbüro und eine Einrichtung zu Hause zu haben, die funktional und komfortabel ist. Wenn ich über ein richtiges NAS verfüge, schäme ich mich nicht mehr, auf meinen Schreibtisch und seine Auswahl an tragbaren Laufwerken zu blicken. Es ist schön, in mein Heimbüro gehen zu können, um mit der Arbeit zu beginnen und mich an meinem Computer wohl und wohl zu fühlen.

Dies war ein langer persönlicher Blog, aber ich schreibe seit über 20 Jahren Artikel über After Effects. Schauen Sie sie sich hier an!

Filmemacher sind die Anlaufstelle für Vorproduktions-, Produktions- und Postproduktionsausrüstung!

Wow, Chris, du hast jemanden dazu gebracht, der normalerweise keine langen Artikel liest … einen langen Artikel gelesen zu haben, großes Lob. Ich muss sagen, dass ich hauptsächlich weitergelesen habe, weil ich neugierig auf deinen Weg und dein endgültiges Ziel war. Allerdings war es auch ein unglaublich gut geschriebenes Stück – ich bin kein Grammatik-/Tippfehler-Attentäter, aber ich konnte es nicht bemängeln. Ich befand mich in einer ähnlichen Situation, allerdings war die Dringlichkeit bei weitem nicht so hoch. Meine Datenentwicklung war nicht die gleiche wie Ihre, aber die Hauptsache ist, dass wir beide eine Lösung gefunden haben, die zu uns persönlich passt. Alles Gute aus Großbritannien. Chris PS: Google hat Ihren Artikel auf meinem Handy vorgeschlagen.

Wow. Großartiger Artikel. Ich kann mich nicht erinnern, das letzte Mal etwas gelesen zu haben, das von Anfang bis Ende so lang war. Vielen Dank für Ihre Zeit und Mühe, es zu schreiben.

Das war eine unheimlich schwierige Lektüre. Ich habe das Gefühl, dass du mir Geld schuldest.

Der einzige Grund, warum ich nicht aufgehört habe, war, dass ich wissen wollte, ob die Link-Aggregation für Sie funktioniert.

Ich verwende eine Dual-Port-10-Gb-SPF+-Karte direkt an meinem NAS (kein Switch erforderlich) und kann die Link-Aggregation nicht zum Laufen bringen, da ich Windows 10 Server benötige.

Stellen Sie in Zukunft einen Redakteur bei Fivver oder so ein.

Lass dich von den Neinsagern nicht unterkriegen, Chris. Du tust es.

Zu Ihrer Information: Wenn Sie Betapakete in Synology aktivieren und den neuen SMB-Client herunterladen, können Sie „Multichannel“ aktivieren, das mehrere nicht verwaltete Ports auf Ihrem Switch verwendet. Angenommen, Ihr Client ist Windows.

Auch die richtige Antwort für 10G-Netzwerke ist heutzutage Mikrotik. Wenn Sie sich für die SFP+-Route entscheiden, können Sie DAC-Kabel verwenden, die spottbillig sind, und Sie können SFP+-mellanox-connect-x-3-Karten bei eBay für etwa 15 US-Dollar pro Stück erwerben. Wir haben jetzt so viele im Büro, dass ich nicht einmal weiß, was ich damit machen soll. Sie können sie sogar in einer Synology verwenden und im Vergleich zu Markenkarten 150 US-Dollar sparen. Die Verwendung von SFP+ bedeutet auch, dass Sie 100-Gbe-Switches kaufen und einen QSFP+-Breakout (Quad-SFP+) verwenden und 4 Computer über einen einzigen Port bedienen können. https://www.servethehome.com/mikrotik-crs504-4xq-in-review-momentus-4x-100gbe-and-25gbe-desktop-switch-marvell/

Wenn es Ihnen nichts ausmacht, sich mit gebrauchter Ausrüstung wirklich die Hände schmutzig zu machen, sind 40-GBE-Ausrüstung bei eBay ziemlich günstig.

Jahre Günstig oder schnell oder zuverlässig Redundante Redundanz 4 ist die Mindestanzahl Geschwindigkeit Arbeiten in Isolation Die Laufwerke sind ein Wechsel Große Vermögenswerte Nicht mein Problem Datenrobotik: Jenseits von RAID Drobo: 4 Schächte der Enttäuschung SSD: Die Zukunft sehen Einzug in die Garage Blick über RAID hinaus Keine Eile, rückwärts zu gehen Flash… ah ahhhh Budget Covid Western Digital: 2 Buchten des Glücks Dies ist nicht das NAS, nach dem Sie suchen Drehen Sie sich richtig herum Cache in der Hand 3 neue Probleme Verknüpfen von Aggregaten Bringt Sie an die Wand Switched on Den Knopf drücken Zu einfach Mehr als man auf den ersten Blick sieht Ein letztes Geheimnis