[Metalab] Projektbörse - Storage Projekt

Felix Erkinger felix at erkinger.at
Wed Mar 22 15:55:31 CET 2006


Hmm,
 1 Seite A4, 2448x3441px, graustufen png, ~ 45 Kb
 1 Buch ~ 300 Seiten: 13 MB
 500 Bücher : 6,5 Gb

Für grosse billige garantiert immer redundante Storage kann ich CODA und
InterMezzo auf Grund von nicht immer gegebenen Replicas nicht empfehlen.
Coda ist eventuell interresant um bereits sicher gespeicherte Daten zu
verteilen.

ClusterFS ist, soweit ich das verstanden habe, das meherere Computer
schreibend auf einen Storage Bereich (dh. nicht redundant) zugreifen.

Software Raid Mirroring (vergesse immer ob das jetzt 0 oder 1 ist) wäre
die erste Option für nicht "Mission Critical" daten,

High-availibility Storage könnte man mit DRBD und zwei bzw. drei
Rechnern mit Gigabit Link dazwischen aufbauen.

Beides ersetzt natürlich nicht ein Backup, weil die Daten auch
gleichzeitig überschrieben werden können.


Eventuell eine Kombination aus
 .) billigen Software Raid Mirroring (zumindest einplatten Crashes safe)
 .) drbd plus heardbeat mit zwei Rechnern und gigabit link
(high-availability)
 .) und rdiff-backup der Daten auf einen dritten Rechner
würde soetwas möglich machen.

Netto zu Brutto Verhältniss wäre ungefähr (schwankt je nach
Datenänderungvorhaltung) eins zu fünf :-(

Dh. 4x 300Gb = 300gb
Bei einen billigen Setup ergeben sich daher:
   600 Gb Netto Platz,
  (4x300 Node-1(raid mirroring),
   4x300 Node-2(raid-mirroring),
   3x300 Node-backup(no-mirroring))

Lg, felix

Bernd Petrovitsch schrieb:
> On Wed, 2006-03-22 at 13:32 +0100, Andreas.Trawoeger at wgkk.at wrote:
> [...]
> 
>>Wenn man hunderte, wenn nicht tausende an Büchern einscannen möchte, kommen
>>enorme Datenmenge zusammen. PCs und IDE Platten sind sehr billig. Mir ist
>>aber kein OpenSource System bekannt, mit welchen sich ein redundantes über
>>mehrere Systeme verteiltes Filesystem im hohen Tera bzw. Petabytebereich
>>aufbauen lässt.
>>
>>Es gibt einige verteile Filesysteme, aber ich kenne keines, welches den
>>Ausfall eines Systemes automatisch ala RAID5 beheben kann.
>>
>>Vor allem basieren die meisten Cluster Filesysteme wie RedHat GFS auf einen
>>gesharten FibreChannel Storage, was sie von den Kosten her vollkommen
>>uninteressant macht.
> 
> 
> Es gibt/gab in der Linux-Welt (wenn man "Shared Storage" a la FC oder
> "Shard SCSI" mal wegläßt):
> - CODA
> - InterMezzo
> - ClusterFS
> 
> Für relativ statische Depots wird vermutlich auch "rsync" u.ä. reichen.
> 
> Oder du kannst dem Paul Witta einen NetApp-Filer abschwatzen.
> 
> 	Bernd



More information about the Metalab mailing list