Warum SSDs plötzlich wieder teurer werden – und was das für Datenrettung bedeutet

Warum SSDs plötzlich wieder teurer werden – und was das für Datenrettung bedeutet

In den letzten Monaten taucht eine Frage immer häufiger auf – sowohl bei Privatkunden als auch in Unternehmen:
Warum sind SSDs plötzlich wieder deutlich teurer oder schwerer verfügbar als noch vor einiger Zeit?

Die Entwicklung hat mehrere Ursachen. Ein Teil davon liegt in der globalen Halbleiterproduktion, ein anderer in der stark gestiegenen Nachfrage nach Speicher für Rechenzentren und KI-Infrastruktur. Für viele Anwender wirkt das zunächst wie ein reines Marktproblem.

Im Alltag eines Datenrettungslabors zeigt sich jedoch eine zweite Seite dieser Entwicklung.

Wenn Speicher teurer wird, bleiben vorhandene Datenträger oft länger im Einsatz.


Warum SSDs derzeit wieder teurer werden

Die Preisentwicklung bei Flash-Speicher ist kein einzelnes Ereignis, sondern das Ergebnis mehrerer Veränderungen im Markt.

Ein wichtiger Faktor ist die Produktion selbst. Nach dem starken Preisverfall bei NAND-Flash in den Jahren 2022 und 2023 haben viele Hersteller ihre Fertigung bewusst reduziert. In dieser Phase lagen die Marktpreise teilweise unter den Herstellungskosten. Unternehmen wie Samsung, Micron oder Kioxia reagierten darauf mit Produktionskürzungen, um das Angebot zu stabilisieren.

Parallel dazu ist die Nachfrage nach Speicher in großen Rechenzentren deutlich gestiegen. Der Ausbau von Cloud-Infrastruktur und KI-Systemen benötigt enorme Mengen an schnellen Datenträgern. Besonders gefragt sind dabei Enterprise-SSDs mit hoher Leistung und hoher Haltbarkeit.

Für viele Hersteller ist es wirtschaftlich attraktiver geworden, ihre Produktionskapazitäten stärker auf diesen Bereich zu konzentrieren. Consumer-SSDs für PCs oder Workstations stehen damit nicht mehr automatisch im Mittelpunkt der Fertigung.

Ein weiterer Faktor ist der technologische Wandel in der NAND-Produktion. Moderne Flash-Speicher verwenden sogenannte 3D-NAND-Strukturen mit inzwischen über 200 Speicherschichten. Neue Generationen dieser Technologie erfordern komplexere Produktionsprozesse. Während solcher Umstellungen sinkt die effektive Produktionsmenge oft vorübergehend.

Das Zusammenspiel aus reduzierter Produktion, steigender Nachfrage und technologischem Wandel führt dazu, dass klassische SSDs derzeit wieder teurer werden oder in bestimmten Kapazitäten schwerer verfügbar sind.


Wenn Speicher teurer wird, verlängert sich die Nutzungsdauer

Für viele Unternehmen hat diese Entwicklung eine einfache Konsequenz: vorhandene Hardware bleibt länger im Einsatz.

In IT-Umgebungen werden Speichermedien normalerweise in festen Zyklen ersetzt. Drei bis fünf Jahre sind in vielen Organisationen üblich. Wenn Preise steigen oder bestimmte Modelle schwer zu beschaffen sind, verschieben sich diese Austauschzyklen häufig.

Das ist zunächst kein Problem. Moderne SSDs sind grundsätzlich sehr langlebig. Viele Laufwerke arbeiten deutlich länger als die ursprünglich geplante Nutzungsdauer.

Im Labor sehen wir jedoch regelmäßig Systeme, die mehrere Jahre intensiver Nutzung hinter sich haben und erst dann erste Auffälligkeiten zeigen.


Warum sich Fehler bei SSDs oft erst spät bemerkbar machen

Flash-Speicher altert anders als magnetische Festplatten. Statt mechanischer Verschleißerscheinungen treten bei SSDs eher strukturelle Veränderungen innerhalb der Speicherzellen auf.

Hersteller geben dafür sogenannte TBW-Werte an, also die garantierte Schreibmenge über die Lebensdauer eines Laufwerks. Diese Werte sind jedoch statistische Richtwerte. In der Praxis können Laufwerke deutlich länger funktionieren – oder in Einzelfällen früher Probleme entwickeln.

Viele dieser Probleme beginnen schleichend.

Typisch sind zunächst vereinzelte Lesefehler oder ungewöhnliche Verzögerungen beim Zugriff. Betriebssysteme können solche Situationen häufig noch korrigieren, sodass der Nutzer zunächst nichts bemerkt. Erst wenn interne Verwaltungsstrukturen beschädigt werden oder der Controller bestimmte Speicherbereiche nicht mehr korrekt adressieren kann, wird der Fehler sichtbar.

In diesem Moment wirkt der Ausfall für viele Anwender plötzlich.

Tatsächlich hat sich der Fehler oft über einen längeren Zeitraum aufgebaut.


Struktureller Verschleiß: Das Risiko der Hochlagen-Architektur

Moderne 3D-NAND-Speicher mit über 200 Layern reagieren empfindlich auf verlängerte Betriebszeiten. Mit zunehmendem Alter sinkt die Isolationsfähigkeit der Oxidschichten. Folge: Spannungsdrift innerhalb der Zellen. Der Controller muss Fehlerkorrekturen (ECC) häufiger anwenden, was die Latenz erhöht und schließlich zum Totalausfall der Verwaltungsstrukturen führt.


Was im Labor bei solchen Fällen passiert

Wenn eine SSD ausfällt, ist der Zugriff auf die Daten häufig nicht mehr über das Dateisystem möglich. Der Controller kann beispielsweise die interne Zuordnung zwischen logischen und physikalischen Speicherblöcken verlieren oder bestimmte Bereiche vollständig sperren.

In solchen Situationen reicht klassische Datenrettungssoftware meist nicht mehr aus. Sie kommuniziert über die reguläre Schnittstelle mit dem Laufwerk und erhält nur die Informationen, die der Controller noch bereitstellt.

Im Labor versuchen wir deshalb, unterhalb dieser Ebene anzusetzen. Je nach Modell greifen wir auf spezielle Betriebsmodi zu oder lesen die NAND-Bausteine direkt aus. Ziel ist es, die interne Struktur der SSD zu analysieren und die ursprüngliche Datenzuordnung so weit wie möglich zu rekonstruieren.

Das ist technisch aufwendiger als bei klassischen Festplatten, aber in vielen Fällen möglich.


Das sagt unser Laborleiter

Die steigenden Preise für Flash-Speicher sind aus technischer Sicht zunächst kein Problem. SSDs sind heute sehr robuste Speichermedien.

Interessant wird es eher durch die Folgen dieser Entwicklung. Wenn Unternehmen Datenträger länger nutzen als ursprünglich geplant, verschiebt sich auch der Zeitpunkt, an dem typische Alterungsprozesse sichtbar werden.

Wir sehen im Labor regelmäßig Laufwerke, die ihre geplante Nutzungsdauer längst überschritten haben und trotzdem noch stabil arbeiten. Gleichzeitig gibt es Situationen, in denen ein einzelner Fehler in dieser Phase zu komplexeren Problemen führt.

Der Preis eines neuen Datenträgers ist letztlich selten der entscheidende Faktor für Datensicherheit. Entscheidend bleibt, ob eine funktionierende Backup-Strategie vorhanden ist.


Häufige Fragen (FAQ)

Warum steigen die Preise für SSDs derzeit wieder?

Ein wichtiger Grund sind Produktionskürzungen bei NAND-Flash nach dem Preisverfall der letzten Jahre. Gleichzeitig steigt die Nachfrage durch Cloud-Infrastruktur und KI-Rechenzentren.

Sind ältere SSDs automatisch unsicher?

Nicht unbedingt. Viele Laufwerke arbeiten deutlich länger als ihre geplante Lebensdauer. Risiken entstehen meist erst durch hohe Schreiblast oder beschädigte interne Verwaltungsstrukturen.

Kann man den Zustand einer SSD frühzeitig erkennen?

Teilweise. SMART-Werte können Hinweise liefern, etwa auf hohe Schreibmengen oder Fehler. Sie zeigen jedoch nicht immer an, wann interne Tabellen oder Controller-Strukturen instabil werden.

Führt der Preisanstieg zu mehr Datenrettungen?

Indirekt ja. Wenn Datenträger länger genutzt werden, steigt statistisch die Wahrscheinlichkeit von Ausfällen oder Firmwareproblemen.