Definition

Primärspeicher (Memory, Arbeitsspeicher)

Der Primärspeicher, auch Arbeitsspeicher oder Memory genannt, ist der elektronische Aufbewahrungsort für die Anweisungen und Daten, die ein Computer benötigt, um schnell zu arbeiten. Hier werden die Informationen zur sofortigen Verwendung gespeichert. Der Arbeitsspeicher ist eine der grundlegenden Funktionen eines Computers, denn ohne ihn könnte ein Computer nicht richtig funktionieren. Das Memory wird auch vom Betriebssystem, der Hardware und der Software eines Computers genutzt.

Technisch gesehen gibt es zwei Arten von Computer-Memory: primärer und sekundärer Speicher. Der Begriff Arbeitsspeicher wird als Synonym für Primärspeicher oder als Abkürzung für eine bestimmte Art von Primärspeicher, den so genannten Random Access Memory (RAM), verwendet. Diese Art von Memory befindet sich auf Mikrochips, die sich in der Nähe des Mikroprozessors eines Computers befinden.

Wenn der zentrale Prozessor (CPU) eines Computers nur einen sekundären Speicher verwenden müsste, würden die Computer viel langsamer werden. Im Allgemeinen gilt: Je mehr Arbeitsspeicher (Primärspeicher) ein Computer hat, desto seltener muss er auf Anweisungen und Daten aus langsameren (sekundären) Speichergeräten zugreifen.

Abbildung 1: Dieses Bild zeigt, wie sich Primär-, Sekundär- und Cache-Speicher in Bezug auf Größe und Geschwindigkeit zueinander verhalten.
Abbildung 1: Dieses Bild zeigt, wie sich Primär-, Sekundär- und Cache-Speicher in Bezug auf Größe und Geschwindigkeit zueinander verhalten.

Arbeitsspeicher vs. Speicher

Die Begriffe „Arbeitsspeicher“ und „Speicher“ (Storage) können leicht als ein und dasselbe Konzept betrachtet werden, es gibt jedoch einige deutliche und wichtige Unterschiede. Kurz gesagt ist der Arbeitsspeicher der Primärspeicher, während Storage der Sekundärspeicher ist. Das Memory bezieht sich auf den Ort, an dem kurzfristige Daten gespeichert werden, während sich die Storage auf den Ort bezieht, an dem die Daten langfristig gespeichert werden.

Der Arbeitsspeicher wird meist als primärer Speicher eines Computers bezeichnet, zum Beispiel als RAM. Der Arbeitsspeicher ist auch der Ort, an dem die Informationen verarbeitet werden. Er ermöglicht den Benutzern den Zugriff auf Daten, die nur für kurze Zeit gespeichert sind. Die Daten werden nur für kurze Zeit gespeichert, da der Primärspeicher flüchtig (volatile) ist, das heißt er hält keine Daten vor, wenn der Computer ausgeschaltet wird.

Der Begriff Speicher (Storage) bezieht sich auf den Sekundärspeicher, in dem die Daten in einem Computer aufbewahrt werden. Ein Beispiel für einen Speicher ist eine Festplatte (HDD). Der Speicher ist nicht flüchtig (non-volatile), das heißt die Informationen sind auch dann noch vorhanden, wenn der Computer ausgeschaltet und wieder eingeschaltet wird. Ein laufendes Programm kann sich im primären Speicher eines Computers befinden, wenn es benutzt wird - zum schnellen Abrufen von Informationen -, aber wenn das Programm geschlossen wird, befindet es sich im sekundären Speicher.

Auch der verfügbare Platz im Arbeitsspeicher und Storage ist unterschiedlich groß. Im Allgemeinen verfügt ein Computer über mehr Speicherplatz als Arbeitsspeicher. Ein Laptop kann beispielsweise über 8 GB RAM und 250 GB Speicherplatz verfügen. Der Unterschied im Speicherplatz besteht darin, dass ein Computer keinen schnellen Zugriff auf alle gespeicherten Informationen benötigt, so dass ein Speicherplatz von etwa 8 GB für die Ausführung von Programmen ausreicht.

Die Begriffe Arbeitsspeicher und Speicher können verwirrend sein, weil ihre Verwendung heutzutage nicht immer einheitlich ist. So kann beispielsweise RAM als Primärspeicher bezeichnet werden, während zu den Sekundärspeichern auch Flash-Speicher gehören können. Um Verwirrung zu vermeiden, kann es einfacher sein, von Memory im Sinne von flüchtig oder nichtflüchtig zu sprechen - und von Speicher im Sinne von primär oder sekundär.

Wie funktioniert der Arbeitsspeicher?

Wenn ein Programm geöffnet wird, wird es vom Sekundärspeicher in den Primärspeicher geladen. Da es verschiedene Arten von Speicher gibt, könnte ein Programm beispielsweise von einem Solid-State-Laufwerk (SSD) in den Arbeitsspeicher verschoben werden. Da der Zugriff auf den Primärspeicher schneller erfolgt, kann das geöffnete Programm schneller mit dem Prozessor des Computers kommunizieren. Auf den Primärspeicher kann von temporären Speichersteckplätzen oder anderen Speicherorten aus sofort zugegriffen werden.

Memory ist flüchtig, was bedeutet, dass die Daten im Speicher nur vorübergehend gespeichert werden. Sobald ein Computer ausgeschaltet wird, werden die im flüchtigen Speicher gespeicherten Daten automatisch gelöscht. Wenn eine Datei gespeichert wird, wird sie zum Speichern an den sekundären Speicher gesendet.

Es gibt mehrere Arten von Arbeitsspeicher, die einem Computer zur Verfügung stehen. Je nach Art des verwendeten Primärspeichers funktioniert er unterschiedlich, aber im Allgemeinen wird ein Arbeitsspeicher auf Halbleiterbasis am häufigsten mit Memory assoziiert. Halbleiterspeicher bestehen aus integrierten Schaltungen mit Metall-Oxid-Halbleiter-Transistoren (Metal-Oxide-Semiconductor, MOS) auf Siliziumbasis.

Typen von Arbeitsspeicher

Es gibt zahlreiche Speichertypen, wenn man nur vom Primärspeicher spricht. Einige Arten von Primärspeicher sind die folgenden:

  • Cache-Speicher. Dieser als Cache bezeichnete temporäre Speicherbereich steht dem Prozessor schneller zur Verfügung als der Hauptspeicher des Computers. Er wird auch als CPU-Memory bezeichnet, da er in der Regel direkt in den CPU-Chip integriert ist oder sich auf einem separaten Chip befindet, der über einen Bus mit der CPU verbunden ist.
  • Der Begriff basiert auf der Tatsache, dass der Prozessor direkt auf jeden Speicherplatz zugreifen kann.
  • Dynamisches RAM. DRAM ist eine Art Halbleiterspeicher, der in der Regel von den Daten oder dem Programmcode verwendet wird, die ein Computerprozessor zum Funktionieren benötigt.
  • Statisches RAM. SRAM speichert Datenbits so lange, wie es mit Strom versorgt wird. Im Gegensatz zu DRAM, das Bits in Zellen speichert, die aus einem Kondensator und einem Transistor bestehen, muss SRAM nicht periodisch aufgefrischt werden.
  • SDRAM mit doppelter Datenrate. DDR-SRAM ist ein SDRAM, das theoretisch die Speichertaktrate auf mindestens 200 MHz erhöhen kann.
  • Synchrones dynamisches RAM mit doppelter Datenrate 4. DDR4-RAM ist ein DRAM-Typ mit einer Schnittstelle für hohe Bandbreiten und ist der Nachfolger der Vorgängerversionen DDR2 und DDR3. DDR4-RAM ermöglicht niedrigere Spannungsanforderungen und eine höhere Moduldichte. Er ist mit höheren Datenübertragungsgeschwindigkeiten gekoppelt und ermöglicht Dual-In-Line-Speichermodule (DIMMS) mit bis zu 64 GB.
  • Dynamischer Rambus-RAM. DRDRAM ist ein Memory-Subsystem, das verspricht, bis zu 1,6 Milliarden Bytes pro Sekunde zu übertragen. Das Subsystem besteht aus RAM, dem RAM-Controller, dem Bus, der den RAM mit dem Mikroprozessor verbindet, und den Geräten im Computer, die ihn verwenden.
  • Read-Only Memory. ROM ist eine Art von Computerspeicher, der nichtflüchtige, permanente Daten enthält, die normalerweise nur gelesen und nicht beschrieben werden können. ROM enthält die Programmierung, die es einem Computer ermöglicht, bei jedem Einschalten neu zu starten oder zu regenerieren.
  • Programmierbares ROM. PROM ist ein ROM, das einmal vom Benutzer geändert werden kann. Es ermöglicht dem Benutzer die Anpassung eines Mikrocode-Programms mit Hilfe eines speziellen Geräts, das PROM Programmer genannt wird.
  • Erasable PROM. EPROM ist ein programmierbares ROM, das gelöscht und wiederverwendet werden kann. Die Löschung erfolgt durch Bestrahlung mit intensivem ultraviolettem Licht durch ein in den Speicherchip eingearbeitetes Fenster.
  • Electrically Erasable PROM. EEPROM ist ein vom Benutzer modifizierbares ROM, das durch Anlegen einer höheren als der normalen elektrischen Spannung gelöscht und wiederholt neu programmiert werden kann. Im Gegensatz zu EPROM-Chips müssen EEPROMs nicht aus dem Computer entfernt werden, um geändert zu werden. Allerdings muss ein EEPROM-Chip in seiner Gesamtheit gelöscht und neu programmiert werden, nicht selektiv.
  • Virtuelles Memory. Eine Memory-Verwaltungstechnik, bei der der Sekundärspeicher so genutzt werden kann, als wäre er ein Teil des Hauptspeichers. Virtuelles Memory nutzt Hardware und Software, um einem Computer die Möglichkeit zu geben, Engpässe im physischen Speicher auszugleichen, indem er Daten vorübergehend vom RAM auf die Festplatte überträgt.

Geschichte und Entwicklung des Arbeitsspeichers

In den frühen 1940er Jahren war der Arbeitsspeicher nur bis zu einer Größe von wenigen Bytes verfügbar. Eines der wichtigsten Zeichen des Fortschritts in dieser Zeit war die Erfindung des akustischen Verzögerungsleitungsspeichers (Acoustic Delay Line Memory). Diese Technologie ermöglichte es, mit Hilfe von Verzögerungsleitungen Bits als Schallwellen in Quecksilber zu speichern und Quarzkristalle als Wandler zum Lesen und Schreiben von Bits einzusetzen. Mit diesem Verfahren konnten einige hunderttausend Bits gespeichert werden. In den späten 1940er Jahren begann man, nichtflüchtige Speicher zu erforschen, und es wurde ein Magnetkernspeicher entwickelt, der den Abruf des Speichers nach einem Stromausfall ermöglichte. In den 1950er Jahren war diese Technologie verbessert und kommerzialisiert worden und führte 1956 zur Erfindung des PROM. Der Magnetkernspeicher war so weit verbreitet, dass er bis in die 1960er Jahre die wichtigste Form des Memory war.

Metall-Oxid-Halbleiter-Feldeffekttransistoren, auch bekannt als MOS-Halbleiterspeicher, wurden 1959 erfunden. Dies ermöglichte die Verwendung von MOS-Transistoren als Elemente für die Memory-Speicherzellen. MOS-Speicher waren billiger und benötigten weniger Strom als Magnetkernspeicher. Bipolare Speicher, bei denen bipolare Transistoren verwendet wurden, kamen Anfang der 1960er Jahre zum Einsatz.

1961 schlug Bob Norman das Konzept eines Solid-State-Memory vor, der auf einem Chip mit integriertem Schaltkreis (Integrated Circuit, IC) verwendet werden sollte. IBM brachte das Memory 1965 auf den Markt. Die Benutzer fanden jedoch, dass Solid-State-Memory im Vergleich zu anderen Speichertypen zu teuer waren, um sie zu verwenden. Weitere Fortschritte Anfang bis Mitte der 1960er Jahre waren die Erfindung des bipolaren SRAM, die Einführung des DRAM durch Toshiba im Jahr 1965 und die kommerzielle Nutzung von SRAM im Jahr 1965. Die Ein-Transistor-DRAM-Zelle wurde 1966 entwickelt, gefolgt von einem MOS-Halbleiterbauelement, das 1967 zur Erstellung von ROM verwendet wurde. Von 1968 bis in die frühen 1970er Jahre wurden auch N-Typ-MOS-Speicher (NMOS) immer beliebter.

Anfang der 1970er Jahre wurden MOS-basiertes Memory immer häufiger als Arbeitsspeicher verwendet. Im Jahr 1970 brachte Intel den ersten kommerziellen DRAM-IC-Chip auf den Markt. Ein Jahr später wurde ein EPROM entwickelt, und 1972 wurde das EEPROM erfunden.

Diese Definition wurde zuletzt im August 2022 aktualisiert

Erfahren Sie mehr über Flash Storage und SSD

ComputerWeekly.de
Close