SSDs haben das Problem, dass die Speicherzellen nur eine begrenzte Anzahl Schreibvorgänge vertragen. Danach sind sie kaputt. Zwar hat jede SSD eine Reserve, die in so einem Fall automatisch benutzt wird, aber die hält eben auch nicht ewig. Durch unachtsame Konfiguration kann man so ganz schnell seine Hardware schrotten.
Im folgenden Beispiel wurden die SMART-Werte zweier im RAID1-Verbund laufender SSDs über ein Jahr lang ausgewertet:
Schön zu sehen ist, wie der Reservespeicherplatz permanent abnimmt. Bei der zweiten SSD sieht man, dass obwohl noch Reservespeicherplatz vorhanden sein sollte, nicht korrigierbare Fehler plötzlich sprunghaft ansteigen.
Die SSDs wurden über das ganze Jahr gesehen durchschnittlich mit 170 kB/s Lesen und 713 kB/s Schreiben "gequält". Auf dem Server lief eine eher kleine Webseite und ein zusätzlicher Dienst, welcher oft viele Daten schreiben musste. Beide verwendeten MySQL, welches mit InnoDB Speicherpages schreibt und zwecks Transaktionssicherung auch immer einen Flush auf den Plattencache machen muss.
Da viele Hoster dedizierte Server mit HDD und SSD nur "entweder oder" anbieten, sollte man vorher genau überlegen, ob eine SSD für die eigene Serveranwendung und auf lange Sicht überhaupt geeignet ist.
SSD's werden ja zurzeit immer weiter entwickelt und es wird ja auch versucht die Lebensdauer zu erhöhen, wie das z.B Samsung macht mit der 3D V-NAND technologie, so sehr für kritisch halte ich es außerdem nicht. Samsung bietet sogar eine Garantie von 10 Jahren auf ihrer SSD 850 Pro.
Liebe Grüße :)
Klar entwickelt sich die Technik weiter, kann aber auch keine Wunder wirken. Die von dir genannte Garantie ist eine eingeschränkte Garantie. Sie gilt nur bis 150 geschriebenen TB, was auf die Laufzeit von 10 Jahren ca. 40 GB pro Tag entspricht. Ordentlich, aber eben doch ein Grenzwert.