Der erste in Massenproduktion hergestellte Personalcomputer. Personal Computer: Definition und Klassifizierung, das Prinzip der offenen Architektur, das Konzept der Computerkompatibilität, grundlegende PC-Konfiguration, grundlegende und zusätzliche Gerätedesigner und selbstgebaute Computer

Die meisten modernen Computer bestehen aus zwei oder mehr Schichten. Es gibt sogar Maschinen mit sechs Ebenen (Abb. 1.2). Level 0 – Maschinenhardware. Seine elektronischen Schaltkreise führen Programme aus, die in der Sprache der Ebene 1 geschrieben sind. Der Vollständigkeit halber sei erwähnt, dass sich unterhalb der Ebene 0 eine weitere Ebene befindet. Diese Ebene ist in Abb. nicht dargestellt. 1.2, da es in den Bereich der Elektrotechnik fällt und daher in diesem Buch nicht behandelt wird. Es wird genannt Ebene der physischen Geräte. Auf dieser Ebene befinden sich Transistoren, die Grundelemente für Computerdesigner sind. Zu erklären, wie Transistoren funktionieren, ist die Aufgabe der Physik.

Auf der untersten Ebene, digitale Logikebene, Objekte werden aufgerufen Ventile. Obwohl Gatter aus analogen Komponenten wie Transistoren bestehen, können sie genau als digitale Geräte modelliert werden. Jedes Tor verfügt über einen oder mehrere digitale Eingänge (Signale, die 0 oder 1 darstellen). Das Gatter berechnet einfache Funktionen dieser Signale, wie z. B. UND oder ODER. Jedes Gate besteht aus mehreren Transistoren. Mehrere Gatter bilden 1 Bit Speicher, das 0 oder 1 enthalten kann. Speicherbits, zusammengefasst in Gruppen, zum Beispiel 16,32 oder 64, bilden Register. Jedes Register kann bis zu einer bestimmten Grenze eine Binärzahl speichern.

Auch der Rechner selbst kann aus Toren bestehen.

Nächste Ebene - Mikroarchitekturebene. Auf dieser Ebene sieht man eine Sammlung von 8 oder 32 Registern, die einen lokalen Speicher und eine sogenannte Schaltung bilden ALU (arithmetisch-logische Einheit). Die ALU führt einfache Rechenoperationen aus. Anmeldung zusammen mit dem ALU-Formular Datenwegüber den die Daten empfangen werden. Die grundlegende Funktionsweise des Datenpfads ist wie folgt. Ein oder zwei Register werden ausgewählt, die ALU führt darüber eine Operation aus, beispielsweise eine Addition, und das Ergebnis wird in einem dieser Register abgelegt.

Auf einigen Maschinen wird der Betrieb des Datenpfads durch ein spezielles Programm namens gesteuert Firmware. Auf anderen Maschinen wird der Datenpfad durch Hardware gesteuert. In früheren Ausgaben des Buches nannten wir diese Ebene „Mikroprogrammierungsebene“, da es sich in der Vergangenheit fast immer um den Software-Interpreter handelte. Da der Datenpfad mittlerweile meist durch Hardware gesteuert wird, haben wir geändert

Namen, um die Bedeutung genauer wiederzugeben.

Auf Maschinen, bei denen der Datenpfad durch Software gesteuert wird,

Die Firmware ist ein Interpreter für Befehle auf Ebene 2. Die Firmware ruft Befehle aus dem Speicher auf und führt sie nacheinander über den Datenpfad aus. Um beispielsweise einen ADD-Befehl auszuführen, wird der Befehl aus dem Speicher aufgerufen, seine Operanden werden in Registern abgelegt, die ALU berechnet die Summe und dann wird das Ergebnis zurückgegeben. Auf einem Computer mit Hardware-Steuerung des Datenpfads läuft der gleiche Vorgang ab, es gibt jedoch kein Programm, das die Interpretation von Level-2-Befehlen steuert.

Mehrstufige Computerorganisation 23

Wir nennen die zweite Ebene die Ebene der Befehlssystemarchitektur.

Jeder Hersteller veröffentlicht ein Handbuch für die von ihm verkauften Computer mit der Bezeichnung „Machine Language Manual“ oder „Western Wombat Model 100X Operating Principles“ usw. Diese Handbücher enthalten Informationen auf dieser Ebene. Wenn sie einen Satz Maschinenanweisungen beschreiben, beschreiben sie tatsächlich Anweisungen, die von der Interpreter-Firmware oder -Hardware ausgeführt werden. Wenn ein Hersteller zwei Dolmetscher für eine Maschine liefert, muss er zwei Handbücher zur Maschinensprache separat für jeden Dolmetscher veröffentlichen.

Die nächste Ebene ist normalerweise hybrid. Die meisten Befehle in seiner Sprache befinden sich auch auf der Ebene der Befehlssystemarchitektur (Befehle, die auf einer dieser Ebenen verfügbar sind, können sich durchaus auf anderen Ebenen befinden). Diese Ebene verfügt über einige zusätzliche Funktionen: eine Reihe neuer Anweisungen, eine andere Speicherorganisation, die Möglichkeit, zwei oder mehr Programme gleichzeitig auszuführen und einige andere. Beim Aufbau der dritten Ebene sind mehr Optionen möglich als beim Aufbau der ersten und zweiten.

Auf der dritten Ebene eingeführte neue Funktionen werden von einem Interpreter ausgeführt, der auf der zweiten Ebene ausgeführt wird. Dieser Interpreter wurde früher als Betriebssystem bezeichnet. Befehle der dritten Ebene sind identisch mit Befehlen der zweiten Ebene und werden von der Firmware oder Hardware, jedoch nicht vom Betriebssystem ausgeführt. Mit anderen Worten: Ein Teil der Befehle der dritten Ebene wird vom Betriebssystem und der andere Teil von der Firmware interpretiert. Aus diesem Grund wird diese Ebene als Hybridebene betrachtet. Wir werden dieses Niveau nennen Betriebssystemebene.

Es besteht ein erheblicher Unterschied zwischen der dritten und vierten Ebene. Die unteren drei Ebenen sind nicht für die Arbeit eines durchschnittlichen Programmierers geeignet.

Sie waren ursprünglich für den Betrieb von Dolmetschern und Übersetzern konzipiert, die höhere Ebenen unterstützen. Diese Übersetzer und Dolmetscher setzen sich aus sogenannten Übersetzern und Dolmetschern zusammen Systemprogrammierer, die sich auf die Entwicklung und Konstruktion neuer virtueller Maschinen spezialisiert haben. Die Stufen vier und höher richten sich an Anwendungsprogrammierer, die spezifische Probleme lösen.

Eine weitere in Level 4 eingeführte Änderung betrifft die Art und Weise, wie höhere Level unterstützt werden. Die Stufen 2 und 3 werden in der Regel gedolmetscht, und die Stufen 4, 5 und höher werden in der Regel, wenn auch nicht immer, vom Übersetzer unterstützt.

Ein weiterer Unterschied zwischen den Stufen 1,2,3 und den Stufen 4,5 und höher ist die Sprachfunktion. Die Maschinensprachen der Stufen 1,2 und 3 sind digital. In diesen Sprachen geschriebene Programme bestehen aus langen Zahlenfolgen, die für Computer praktisch, für Menschen jedoch völlig unbequem sind. Ab der vierten Ebene enthalten Sprachen Wörter und Abkürzungen, die für den Menschen verständlich sind.

Die vierte Ebene stellt die symbolische Form einer der Sprachen dar

Kovs der unteren Ebene. Auf dieser Ebene können Programme in einer für Menschen lesbaren Form geschrieben werden. Diese Programme werden zunächst in eine Sprache der Level 1, 2 oder 3 übersetzt und dann von der entsprechenden virtuellen oder realen Maschine interpretiert. Das Programm, das die Sendung durchführt, wird aufgerufen Assembler.

Die fünfte Ebene besteht normalerweise aus Sprachen, die für Anwendungsprogrammierer entwickelt wurden. Solche Sprachen heißen Hochsprachen. Es gibt Hunderte von Hochsprachen. Die bekanntesten davon sind BASIC, C, C++, Java, LISP und Prolog. In diesen Sprachen geschriebene Programme werden in der Regel auf Level 3 oder 4 übersetzt. Die Übersetzer, die diese Programme verarbeiten, werden aufgerufen Compiler. Beachten Sie, dass manchmal auch die Interpretationsmethode verwendet wird. Beispielsweise werden Java-Programme üblicherweise interpretiert.

In einigen Fällen besteht die fünfte Ebene aus einem Dolmetscher für ein Anwendungsgebiet wie die symbolische Mathematik. Es stellt die Daten und Operationen zur Lösung von Problemen in diesem Bereich in einer Sprache bereit, die für Personen mit Kenntnissen in symbolischer Mathematik verständlich ist.

Fazit: Ein Computer ist als hierarchische Struktur von Ebenen konzipiert, die jeweils auf der vorherigen aufbauen. Jede Ebene stellt eine spezifische Abstraktion mit unterschiedlichen Objekten und Operationen dar. Wenn wir einen Computer auf diese Weise betrachten, können wir unnötige Details ignorieren und ein komplexes Thema auf etwas reduzieren, das leichter zu verstehen ist.

Der Satz von Datentypen, Operationen und Funktionen jeder Schicht wird als Architektur bezeichnet. Architektur beschäftigt sich mit Aspekten, die für den Programmierer sichtbar sind. Zum Beispiel gehört es zur Architektur, zu wissen, wie viel Speicher beim Schreiben eines Programms genutzt werden kann. Und Designaspekte (z. B. welche Technologie zum Erstellen von Speicher verwendet wird) sind nicht Teil der Architektur. Die Untersuchung, wie die für Programmierer sichtbaren Teile eines Computersystems entwickelt werden, wird als Studie bezeichnet Rechnerarchitektur. Die Begriffe „Computerarchitektur“ und „Computerorganisation“ bedeuten im Wesentlichen dasselbe.

Entwicklung von Mehrebenenmaschinen

In diesem Abschnitt werden wir kurz die Geschichte der Entwicklung von Mehrebenenmaschinen skizzieren und zeigen, wie sich Anzahl und Art der Ebenen im Laufe der Jahre verändert haben. In Maschinensprache geschriebene Programme (Stufe 1) können sofort von elektronischen Computerschaltkreisen (Stufe 0) ausgeführt werden, ohne den Einsatz von Dolmetschern und Übersetzern. Diese elektronischen Schaltkreise bilden zusammen mit Speicher und Ein-/Ausgabeeinrichtungen Hardware. Hardware besteht aus materiellen Objekten – integrierten Schaltkreisen, Leiterplatten, Kabeln, Netzteilen, Speichergeräten und Druckern. Abstrakte Konzepte, Algorithmen und Befehle sind nicht hardwarespezifisch.

Software, Stattdessen besteht es aus Algorithmen (detaillierten Befehlsfolgen, die beschreiben, wie ein Problem gelöst werden soll) und ihren Computerdarstellungen, also Programmen. Programme können auf einer Festplatte, Diskette, CD-ROM oder anderen Medien gespeichert werden, aber Software ist im Wesentlichen der Satz von Anweisungen, aus denen die Programme bestehen, und nicht das physische Medium, auf dem diese Programme aufgezeichnet sind.

Bei den allerersten Computern war die Grenze zwischen Hardware und Software klar. Im Laufe der Zeit kam es jedoch vor allem entwicklungsbedingt zu einer deutlichen Verwischung dieser Grenze.

Mehrstufige Computerorganisation von 25 Computern, Ebenen wurden hinzugefügt, entfernt und zusammengeführt. Derzeit ist es sehr schwierig, sie voneinander zu trennen. Tatsächlich kann das zentrale Thema dieses Buches wie folgt ausgedrückt werden: Hardware und Software logisch

sind gleichwertig.

Jeder von der Software ausgeführte Vorgang kann in die Hardware integriert werden (vorzugsweise, nachdem er verstanden wurde). Karen Panetta Lenz sagte; „Hardware ist nur versteinerte Software.“ Natürlich gilt auch das Umgekehrte: Jeder Befehl, der von der Hardware ausgeführt wird, kann in der Software simuliert werden. Die Entscheidung, Hardware- und Softwarefunktionen zu trennen, basiert auf Faktoren wie Kosten, Geschwindigkeit, Zuverlässigkeit und der Häufigkeit der erwarteten Änderungen. Es gibt ein paar feste Regeln, dass X in Hardware sein und Y programmierbar sein muss.

Diese Entscheidungen ändern sich je nach Trends in der Entwicklung der Computertechnologie.

2. Arten von Computern

Technologische und wirtschaftliche Aspekte

Der Grad des technologischen Fortschritts kann anhand beobachtet werden Moores Gesetz, Benannt nach einem der Gründer und Chef von Intel, Gordon Moore, der es 1965 entdeckte, besagt das Mooresche Gesetz, dass sich die Anzahl der Transistoren auf einem einzelnen Chip alle 18 Monate verdoppelt, also jedes Jahr um 60 % zunimmt. Die Abmessungen der Mikroschaltungen und die Daten ihrer Herstellung sind in Abb. 1.6 bestätigen, dass das Mooresche Gesetz immer noch in Kraft ist.


Viele Experten glauben, dass Moores Gesetz auch im 21. Jahrhundert, vielleicht bis 2020, gültig ist. Es ist wahrscheinlich, dass Transistoren bald aus nur wenigen Atomen bestehen werden, obwohl Fortschritte in der Quanteninformatik es ermöglichen könnten, den Spin eines Elektrons für die Unterbringung eines Bits zu nutzen.

Ein weiterer Faktor bei der Entwicklung der Computertechnologie ist das erste Nathan Law of Software, benannt nach Nathan Myhrvold, dem Chefadministrator von Microsoft. In diesem Gesetz heißt es: „Software ist Gas. Es breitet sich aus und füllt das Reservoir, in dem es sich befindet, vollständig aus.“ Moderne elektronische Editoren nehmen Dutzende Megabyte ein. In Zukunft werden sie zweifellos Dutzende Gigabyte belegen. Software entwickelt sich ständig weiter und führt zu einer ständigen Nachfrage nach schnelleren Prozessoren, mehr Speicher und größerer I/O-Leistung.

Jedes Jahr nimmt die Anzahl der Transistoren auf einem Chip rasant zu. Beachten Sie, dass die Erfolge bei der Entwicklung anderer Teile des Computers ebenso groß sind.

Подсчитать, насколько быстро происходит совершенствование жесткого диска, гораздо сложнее, поскольку тут есть несколько параметров (объем, скорость передачи данных, цена и т. д), но измерение любого из этих параметров покажет, что показатели возрастают, по крайней мере, на 50% Im Jahr.

Auch im Bereich Telekommunikation und Vernetzung gibt es große Fortschritte. In weniger als zwei Jahrzehnten sind wir von Modems, die Informationen mit 300 Bit/s übertragen, zu analogen Modems mit 56 Kbit/s, ISDN-Telefonleitungen mit 2x64 Kbit/s und Glasfasernetzen mit 2x64 Kbit/s übergegangen. Die Geschwindigkeit beträgt bereits mehr als 1 Gbit/s. Glasfaser-Transatlantik-Telefonkabel (z. B. TAT-12/13) kosten etwa 700 Millionen US-Dollar, sind 10 Jahre lang in Betrieb und können 300.000 Gespräche gleichzeitig führen, sodass die Kosten für ein 10-minütiges interkontinentales Gespräch weniger als 1 Cent betragen. Laborstudien haben bestätigt, dass Kommunikationssysteme mit einer Geschwindigkeit von 1 Terabit/s (1012 Bit/s) über eine Distanz von mehr als 100 km ohne Verstärker möglich sind. Die Entwicklung des Internets muss hier kaum erwähnt werden.

3.Computerfamilien

3.1. Große Auswahl an Computern

Richard Hamming, ein ehemaliger Forscher der Bell Laboratories, stellte fest, dass eine quantitative Änderung der Menge um eine Größenordnung zu einer qualitativen Änderung führt.

Beispielsweise unterscheidet sich ein Rennwagen, der mit 1000 km/h in der Wüste von Nevada fahren kann, grundlegend von einem gewöhnlichen Auto, das mit 100 km/h auf einer Autobahn fährt. Ebenso ist ein Wolkenkratzer mit 100 Stockwerken nicht mit einem vergleichbar zehnstöckiges Wohnhaus. Computer, dann haben sich die quantitativen Indikatoren über drei Jahrzehnte nicht um das Zehnfache, sondern um das 1.000.000-fache erhöht.

Es gibt zwei Möglichkeiten, Computertechnologie zu entwickeln: entweder Computer mit immer größerer Leistung zu einem konstanten Preis zu erstellen oder denselben Computer zu produzieren und den Preis jedes Jahr zu senken. Die Computerindustrie nutzt beide Wege, um eine Vielzahl von Computern herzustellen. Eine sehr grobe Klassifizierung moderner Computer ist in der Tabelle dargestellt. 1.3.

Ganz oben befinden sich Chips, die auf die Innenseite von Grußkarten geklebt werden, um Happy-Birthday-Melodien, Hochzeitsmärsche oder ähnliches abzuspielen. Der Autor der Idee hat sich noch keine Kondolenzkarten ausgedacht, die einen Trauermarsch spielen, aber da er diese Idee in den Verbraucherbereich gebracht hat, können wir damit rechnen, dass solche Karten bald erscheinen. Jeder, der mit Computern im Wert von mehreren Millionen Dollar aufgewachsen ist, betrachtet Computer, die für jedermann zugänglich sind, in etwa auf die gleiche Weise wie ein Flugzeug, das für jedermann zugänglich ist. Dennoch sollte es solche Computer zweifellos geben (wie wäre es mit sprechenden Mülltüten, die einem sagen, man solle keine Aluminiumdosen wegwerfen?).

Die zweite Reihe sind Computer, die in Telefonen, Fernsehern, Mikrowellenherden, CD-Playern, Spielzeugen, Puppen usw. untergebracht sind. In einigen Jahren werden alle Elektrogeräte über eingebaute Computer verfügen, deren Zahl in Milliardenhöhe liegen wird . Solche Computer bestehen aus einem Prozessor, weniger als 1 MB Speicher und Eingabe-/Ausgabegeräten, alles auf einem kleinen Chip, der nur ein paar Dollar kostet.

Die nächste Zeile sind Gaming-Computer. Hierbei handelt es sich um gewöhnliche Computer mit spezieller Grafik, jedoch mit begrenzter Software und einem fast völligen Mangel an Offenheit, also der Möglichkeit der Neuprogrammierung. Elektronische Notebooks und andere Taschencomputer sowie Netzwerkcomputer und Webterminals kosten in etwa den gleichen Preis. Sie alle enthalten einen Prozessor, ein paar Megabyte Speicher, eine Art Display (vielleicht sogar einen Fernseher) und sonst nichts. Deshalb sind sie so günstig.

Als nächstes kommen Personalcomputer. Sie sind diejenigen, die die meisten Menschen mit dem Wort „Computer“ assoziieren. Es gibt zwei Arten von Personalcomputern: Desktops und Laptops. Sie enthalten typischerweise mehrere Megabyte Speicher, eine Festplatte mit mehreren Gigabyte Daten, eine CD-ROM, ein Modem, eine Soundkarte und andere Peripheriegeräte. Sie sind mit komplexen Betriebssystemen ausgestattet, erweiterbar und bei der Arbeit mit ihnen kommt eine breite Palette an Software zum Einsatz. Computer mit einem Intel-Prozessor werden üblicherweise als „Personalcomputer“ bezeichnet, während Computer mit anderen

Prozessoren - „Workstations“, obwohl es keinen großen Unterschied zwischen ihnen gibt.

Personalcomputer und Workstations werden häufig als Netzwerkserver sowohl für lokale Netzwerke (normalerweise innerhalb derselben Organisation) als auch für das Internet verwendet. Diese Computer verfügen normalerweise über einen oder mehrere Prozessoren, mehrere Gigabyte Arbeitsspeicher und viele GB Festplattenspeicher. Solche Computer sind in der Lage, mit sehr hohen Geschwindigkeiten im Netzwerk zu arbeiten. Einige von ihnen können Tausende eingehender Nachrichten gleichzeitig verarbeiten.

Neben kleinen Servern mit mehreren Prozessoren gibt es Systeme, die als Netzwerke von Arbeitsstationen (NOW – Networks of Workstations) oder Cluster von Arbeitsstationen (COW – Clusters of Workstations) bezeichnet werden. Sie bestehen aus gewöhnlichen Personalcomputern oder Workstations, die an ein Netzwerk angeschlossen sind, über das Informationen mit einer Geschwindigkeit von 1 Gbit/s übertragen werden, und einer speziellen Software, die es allen Maschinen ermöglicht, gleichzeitig an derselben Aufgabe zu arbeiten. Solche Systeme werden in Wissenschaft und Technik häufig eingesetzt. Workstation-Cluster können einige wenige bis mehrere tausend Computer umfassen. Dank der geringen Komponentenkosten können einzelne Organisationen Maschinen erwerben, die praktisch Mini-Supercomputer sind.

Und jetzt sind wir bei großen, raumgroßen Computern angelangt, die an die Computer der 60er Jahre erinnern. In den meisten Fällen sind diese Systeme direkte Nachkommen großer Computer der IBM-360-Serie. Normalerweise sind sie nicht viel schneller als leistungsstarke Server, aber sie haben eine höhere Geschwindigkeit der E/A-Prozesse und verfügen über ziemlich viel Speicherplatz – 1 Terabyte oder mehr (1 Terabyte = 1012 Bytes). Solche Systeme sind sehr teuer und erfordern große Investitionen in Software, Daten und Personal, um diese Computer zu warten. Viele Unternehmen sind der Meinung, dass es günstiger ist, mehrere Millionen Dollar auf einmal für ein solches System auszugeben, als auch nur daran zu denken, alle Anwendungen für kleine Computer neu programmieren zu müssen.

Es war diese Computerklasse, die zum Jahr-2000-Problem führte. Das Problem entstand, weil COBOL-Programmierer in den 1960er und 1970er Jahren das Jahr als zweistellige Dezimalzahl darstellten, um Speicherplatz zu sparen. Sie konnten nicht vorhersehen, dass ihre Software drei oder vier Jahrzehnte später im Einsatz sein würde. Viele Unternehmen haben den gleichen Fehler gemacht, indem sie der Jahreszahl nur zwei Dezimalstellen hinzugefügt haben. Der Autor dieses Buches sagt voraus, dass das Ende der Zivilisation am 31. Dezember 9999 um Mitternacht eintreten wird, wenn alle über 8.000 Jahre geschriebenen COBOL-Programme sofort zerstört werden.

Bei den folgenden Großrechnern handelt es sich um echte Supercomputer. Ihre Prozessoren arbeiten mit sehr hohen Geschwindigkeiten, ihre Speicherkapazität beträgt viele Gigabyte und auch ihre Festplatten und Netzwerke sind sehr schnell. In den letzten Jahren sind sich viele Supercomputer sehr ähnlich, sie ähneln fast den Clustern von Workstations, verfügen jedoch über mehr Komponenten und sind schneller. Supercomputer werden verwendet, um eine Vielzahl wissenschaftlicher und technischer Probleme zu lösen, die komplexe Berechnungen erfordern, beispielsweise die Simulation kollidierender Galaxien, die Entwicklung neuer Medikamente und die Simulation der Luftströmung um einen Flugzeugflügel.

3.2.Computerfamilien

In diesem Abschnitt geben wir eine kurze Beschreibung der drei Computer, die in diesem Buch als Beispiele verwendet werden: Pentium II, UltraSPARC II und Picojava II.

Im Jahr 1968 gründeten Robert Noyce, Erfinder des integrierten Siliziumschaltkreises, Gordon Moore, Autor des Mooreschen Gesetzes, und Arthur Rock, ein Kapitalist aus San Francisco, die Intel Corporation, um Computerchips herzustellen. Im ersten Jahr seines Bestehens verkaufte der Konzern lediglich Chips im Wert von 3.000 US-Dollar, doch dann stieg der Umsatz des Unternehmens spürbar an.

In den späten 60er Jahren waren Taschenrechner große elektromechanische Maschinen von der Größe eines modernen Laserdruckers und wogen etwa 20 kg.

Im September 1969 wandte sich das japanische Unternehmen Busicom an die Intel Corporation mit der Bitte, 12 nicht serielle Chips für einen elektronischen Computer herzustellen. Der mit diesem Projekt beauftragte Intel-Ingenieur Ted Hoff kam zu dem Schluss, dass es möglich sei, einen 4-Bit-Allzweckprozessor auf einem einzigen Chip unterzubringen, der die gleichen Funktionen erfüllen würde und einfacher und billiger wäre. So erschien 1970 der erste Prozessor auf einem einzigen Chip, der 4004-Prozessor mit 2300 Transistoren.

Beachten Sie, dass weder Intel noch Busicom die geringste Ahnung hatten, was für eine großartige Entdeckung sie gemacht hatten. Als Intel entschied, dass es einen Versuch wert sei, den 4004-Prozessor in anderen Entwicklungen zu verwenden, bot es an, alle Rechte an dem neuen Chip von Busicom für 60.000 US-Dollar zu kaufen. Das war der Betrag, den Busicom Intel für die Entwicklung des Chips gezahlt hatte. Busicom nahm das Angebot von Intel sofort an und Intel begann mit der Arbeit an einer 8-Bit-Version des 1972 veröffentlichten 8008-Chips.

Intel erwartete keine große Nachfrage nach dem 8008-Chip und brachte daher eine kleine Stückzahl dieses Produkts auf den Markt. Zu jedermanns Überraschung stieß der neue Chip auf großes Interesse, sodass Intel mit der Entwicklung eines weiteren Prozessors begann, der die 16-KB-Speichergrenze (wie der 8008-Prozessor) durchbrach, die durch die Anzahl der externen Pins auf dem Chip auferlegt wurde. So entstand der kleine Allzweckprozessor 8080, der 1974 auf den Markt kam.

Wie der PDP-8 revolutionierte er den Computermarkt und wurde sofort zum Massenprodukt: Allein DEC verkaufte Tausende von PDP-8 und Intel verkaufte Millionen von 8080-Prozessoren.

1978 erschien der 8086-Prozessor – ein 16-Bit-Prozessor auf einem einzigen Chip. Der 8086-Prozessor ähnelte in vielerlei Hinsicht dem 8080, war jedoch nicht vollständig mit ihm kompatibel. Dann kam der 8088-Prozessor mit der gleichen Architektur wie der 8086.

Auf ihm liefen die gleichen Programme wie auf dem 8086, aber anstelle eines 16-Bit-Busses verfügte er über einen 8-Bit-Bus, was den Prozessor langsamer machte, aber weniger kostete als der 80861. Als IBM den 8088-Prozessor für den IBM-PC wählte, war dies der Fall Chip wurde zum Maßstab in der Produktion von Personalcomputern.

Weder der 8088 noch der 8086 konnten auf mehr als 1 MB Speicher zugreifen. In den frühen 1980er-Jahren war dies zu einem ernsten Problem geworden, weshalb Intel den 80286 entwickelte, der mit dem 8086 kompatibel war. Der grundlegende Befehlssatz blieb im Wesentlichen derselbe wie bei den Prozessoren 8086 und 8088, der Speicher war jedoch etwas anders angeordnet und konnte immer noch verwendet werden funktionieren aufgrund der Anforderung der Kompatibilität mit früheren Chips. Der 80286-Prozessor wurde in den IBM PC/AT- und PS/2-Modellen verwendet.

Er war wie der 8088 sehr gefragt (hauptsächlich, weil die Käufer ihn als schnelleren 8088-Prozessor ansahen).

Der nächste Schritt war der 32-Bit-Prozessor 80386, der 1985 auf den Markt kam. Wie 80286 war es mehr oder weniger kompatibel mit allen älteren Versionen. Diese Art der Kompatibilität erwies sich als Segen für diejenigen, die ältere Software verwendeten, und als kleiner Nachteil für diejenigen, die eine moderne Architektur bevorzugten, die nicht durch Fehler und Technologien der Vergangenheit belastet wurde.

Vier Jahre später erschien der Prozessor 80486. Er war schneller als der 80386, konnte Gleitkommaoperationen ausführen und verfügte über 8 KB Cache-Speicher. Der Cache-Speicher wird verwendet, um die am häufigsten verwendeten Wörter in der CPU zu behalten und lange Zugriffe auf den Hauptspeicher (RAM) zu vermeiden. Manchmal befindet sich der Cache-Speicher nicht innerhalb der CPU, sondern daneben. Der 80486 verfügte über eine integrierte Multiprozessorunterstützung, die Herstellern die Möglichkeit gab, Systeme mit mehreren Prozessoren zu entwickeln.

Zu diesem Zeitpunkt stellte Intel, nachdem es einen Rechtsstreit wegen Verstößen gegen die Regeln zur Produktbenennung verloren hatte, fest, dass Zahlen (z. B. 80486) nicht als Marke eingetragen werden konnten, weshalb die nächste Computergeneration Pentium genannt wurde (vom griechischen Wort LEUTE – fünf). ). Im Gegensatz zum 80486, der über eine interne Pipeline verfügte, hatte der Pentium zwei, wodurch er fast doppelt so schnell lief (wir werden uns in Kapitel 2 detailliert mit Pipelines befassen).

Als die nächste Computergeneration auf den Markt kam, waren diejenigen, die auf den Namen Sexium (lateinisch „Sex“ – sechs) rechneten, enttäuscht. Der Name Pentium wurde so bekannt, dass sie beschlossen, ihn nicht mehr zu verwenden, und der neue Chip hieß Pentium Pro. Trotz dieser geringfügigen Namensänderung unterschied sich dieser Prozessor stark vom vorherigen. Es hatte eine völlig andere interne Organisation und konnte bis zu fünf Befehle gleichzeitig ausführen.

Eine weitere Neuerung des Pentium Pro ist ein zweistufiger Cache-Speicher. Der Prozessor enthielt 8 KB Speicher für häufig verwendete Anweisungen und weitere 8 KB für häufig verwendete Daten. Beim Pentium Pro befand sich neben dem Prozessor (aber nicht auf dem Chip selbst) noch ein weiterer 256 KB großer Cache-Speicher.

Nach dem Pentium Pro erschien der Pentium II-Prozessor, im Wesentlichen derselbe wie sein Vorgänger, jedoch mit einem speziellen Befehlssystem für Multimedia-Aufgaben (MMX – Multimedia-Erweiterungen). Dieses Befehlssystem sollte die Berechnungen beschleunigen, die zur Wiedergabe von Bild und Ton erforderlich sind. Mit MMX waren keine speziellen Coprozessoren erforderlich. Diese Befehle waren in späteren Versionen des Pentium verfügbar, im Pentium Pro jedoch nicht.

Somit kombinierte der Pentium II-Computer die Funktionen des Pentium Pro mit Multimedia-Befehlen.

Anfang 1998 brachte Intel eine neue Produktlinie namens Celeron auf den Markt. Der Celeron hatte weniger Leistung als der Pentium II, war aber günstiger. Da der Celeron-Computer die gleiche Architektur wie der Pentium II hat, werden wir in diesem Buch nicht darauf eingehen. Im Juni 1998 veröffentlichte Intel eine spezielle Version des Pentium II – Xeop. Er hatte einen größeren Cache, sein interner Bus war schneller und seine Multiprozessor-Unterstützung wurde verbessert, aber im Übrigen blieb er ein normaler Pentium II, daher werden wir auch nicht darauf eingehen. Computer der Intel-Familie sind in der Tabelle aufgeführt. 1.4.

Alle Intel-Chips sind mit ihren Vorgängern bis kompatibel

der 8086-Prozessor. Mit anderen Worten: Der Pentium II kann Programme ausführen, die für den 80861-Prozessor geschrieben wurden. Kompatibilität war schon immer eine der Hauptanforderungen bei der Entwicklung neuer Computer, damit Käufer weiterhin mit alter Software arbeiten können, ohne dafür Geld ausgeben zu müssen neue. Natürlich ist der Pentium II um ein Vielfaches komplexer als der 8086 und kann daher viele Funktionen ausführen, die der 8086 nicht kann. All diese inkrementellen Verbesserungen mit jeder neuen Version führen dazu, dass die Pentium II-Architektur nicht so einfach ist, wie sie sein könnte. wenn den Entwicklern des Pentium-II-Prozessors 7,5 Millionen Transistoren und Anweisungen für einen Neuanfang gegeben würden.

Obwohl das Mooresche Gesetz früher mit der Anzahl der Bits im Computerspeicher in Verbindung gebracht wurde, ist es interessanterweise auch auf Prozessoren anwendbar.

Wenn wir die Anzahl der Transistoren auf diesem Chip dem Veröffentlichungsdatum jedes Mikroschaltkreises gegenüberstellen (die Anzahl der Transistoren ist in Tabelle 1.4 aufgeführt), werden wir sehen, dass auch hier das Mooresche Gesetz gilt. Die Grafik ist in Abb. 1.7 dargestellt.

In den 70er Jahren war das Betriebssystem UNIX an vielen Universitäten sehr beliebt, aber Personalcomputer waren für dieses Betriebssystem nicht geeignet, so dass UNIX-Bastler an Time-Sharing-Minicomputern wie dem PDP-11 und VAX arbeiten mussten. Andy Bechtolsheim, ein Doktorand an der Stanford University, war sehr verärgert darüber, dass er in ein Rechenzentrum musste, um mit UNIX zu arbeiten. 1981 löste er dieses Problem, indem er aus handelsüblichen Standardteilen seine eigene persönliche UNIX-Workstation baute, die er SUN-1 (Stanford University Network) nannte.

Bechtolsheim wurde bald von Vinod Khosla entdeckt, einem 27-jährigen Inder, der den brennenden Wunsch hatte, mit dreißig Jahren Millionär zu werden und sich aus dem Geschäft zurückzuziehen. Khosla schlug Bechtolsheim vor, ein Unternehmen zur Herstellung von Sun-Workstations zu gründen. Er engagierte Scot McNealy, einen weiteren Stanford-Studenten, als Leiter der Produktion. Sie beauftragten Bill Joy, den Hauptentwickler des UNIX-Systems, mit dem Schreiben der Software. 1982 gründeten sie zu viert Sun Microsystems. Der erste Computer des Unternehmens, der Sun-1, war mit dem Motorola 68020-Prozessor ausgestattet und war ein großer Erfolg, ebenso wie die nachfolgenden Modelle Sun-2 und Sun-3, die ebenfalls mit Motorola-Mikroprozessoren entwickelt wurden. Diese Maschinen waren wesentlich leistungsfähiger als andere Personalcomputer der damaligen Zeit (daher der Name „Workstation“) und ursprünglich für die Vernetzung konzipiert. Jede Sun-Workstation war mit einem Ethernet-Netzwerkadapter und TCP/IP-Software ausgestattet, um mit dem ARPANET, dem Vorgänger des Internets, zu kommunizieren.

Im Jahr 1987 beschloss Sun, das zu diesem Zeitpunkt Workstations im Wert von einer halben Milliarde Dollar pro Jahr verkaufte, einen eigenen Prozessor zu entwickeln, der auf einem revolutionären neuen Design der University of California in Berkeley (RISC II) basierte. Dieser Prozessor wurde SPARC (Scalable ProcessorARCitecture – skalierbare Prozessorarchitektur) genannt. Es wurde bei der Produktion der Sun-4-Workstation verwendet. Nach einiger Zeit wurden alle Sun-Workstations auf Basis dieses Prozessors produziert.

Im Gegensatz zu vielen anderen Computerunternehmen hat Sun beschlossen, keine SPARC-Prozessoren herzustellen. Stattdessen erteilte es mehreren Unternehmen ein Patent für ihre Herstellung in der Hoffnung, dass der Wettbewerb zwischen ihnen zu qualitativ hochwertigeren Produkten und niedrigeren Preisen führen würde. Diese Unternehmen produzierten mehrere unterschiedliche Chips, die auf unterschiedlichen Technologien basierten, mit unterschiedlichen Geschwindigkeiten arbeiteten und sich in den Kosten unterschieden.

Die Chips hießen MicroSPARC, HyperSPARK, SuperSPARK und TurboSPARK. Sie unterschieden sich kaum voneinander, waren alle kompatibel und konnten dieselben Programme ausführen, die nicht geändert werden mussten.

Sun wollte schon immer, dass verschiedene Unternehmen Komponenten und Systeme für SPARK liefern. Es war notwendig, eine ganze Branche aufzubauen; nur in diesem Fall wäre es möglich, mit Intel, dem Marktführer auf dem PC-Markt, zu konkurrieren. Um das Vertrauen von Unternehmen zu gewinnen, die an der Herstellung von SPARC-Prozessoren interessiert waren, aber nicht in Produkte investieren wollten, die von Intel unterdrückt würden, gründete Sun das Industriekonsortium SPARC International, um die Entwicklung zukünftiger Versionen der SPARC-Architektur zu leiten. Es ist wichtig, zwischen der SPARC-Architektur, bei der es sich um einen Satz von Anweisungen handelt, und der tatsächlichen Ausführung dieser Anweisungen zu unterscheiden. In diesem Buch werden wir sowohl über die gesamte SPARC-Architektur als auch über den in einer SPARC-Workstation verwendeten Prozessor sprechen (nachdem wir Prozessoren bereits in den Kapiteln drei und vier besprochen haben).

Der erste SPARC war 32-Bit und lief mit 36 ​​MHz. Der Zentralprozessor hieß Ш (Integer Unit – Ganzzahl-Arithmetikprozessor) und war sehr mittelmäßig. Es gab nur drei Hauptmannschaftsformate und insgesamt nur 55 Mannschaften. Mit dem Aufkommen des Gleitkommaprozessors kamen 14 weitere Anweisungen hinzu. Beachten Sie, dass Intel mit 8- und 16-Bit-Chips begann (Modelle 8088, 8086, 80286) und erst dann auf 32-Bit umstieg (Modell 80386) und Sun im Gegensatz zu Intel sofort mit 32-Bit begann.

Ein großer Durchbruch in der Entwicklung von SPARC gelang 1995, als eine 64-Bit-Version (Version 9) mit 64-Bit-Adressen und Registern entwickelt wurde. Die erste Workstation mit dieser Architektur war UltraSPARC I, die 1995 veröffentlicht wurde. Es war vollständig kompatibel mit 32-Bit-Versionen von SPARC, obwohl es selbst 64-Bit war.

Während frühere Maschinen mit Zeichen- und Zahlendaten arbeiteten, wurde UltraSPARC von Anfang an für die Arbeit mit Bildern, Audio, Video und Multimedia im Allgemeinen konzipiert. Zu den Neuerungen zählen neben der 64-Bit-Architektur auch 23 neue Befehle, darunter Befehle zum Packen und Dekomprimieren von Pixeln aus 64-Bit-Wörtern, zum Skalieren und Drehen von Bildern, zum Verschieben von Blöcken sowie zur Videokomprimierung und -dekomprimierung in Echtzeit. Diese Befehle wurden VIS (Visual Instruction Set) genannt und sollten Multimedia unterstützen. Sie ähnelten den MMX-Teams.

UltraSPARC war für Webserver mit Dutzenden Prozessoren und physischem Speicher bis zu 2 TB (Terabyte, 1 TB = 1012 Bytes) gedacht. Einige Versionen von UltraSPARC können jedoch auch in Laptops verwendet werden.

Auf UltraSPARC I folgten UltraSPARC II und UltraSPARC III. Diese Modelle unterschieden sich in der Geschwindigkeit voneinander und jedes von ihnen verfügte über einige neue Funktionen. Wenn wir über die SPARC-Architektur sprechen, sprechen wir über die 64-Bit-Version des UltraSPARC II-Computers (Version 9).

Die Programmiersprache C wurde von einem Mitarbeiter der Bell Laboratories, Dennis Ritchie, erfunden. Diese Sprache wurde für die Ausführung auf dem UNIX-Betriebssystem entwickelt. Aufgrund der großen Beliebtheit von UNIX wurde C bald zur dominierenden Sprache in der Systemprogrammierung. Einige Jahre später fügte Bjarne Stroustrup, ebenfalls von den Bell Laboratories, einige Funktionen der objektorientierten Programmierung zu C hinzu, und C++ war geboren, das ebenfalls sehr beliebt war

beliebt.

Mitte der 1990er Jahre machten sich Forscher bei Sun Microsystems Gedanken über die Herstellung

damit Benutzer Binärprogramme über das Internet aufrufen und als Teil von Webseiten herunterladen können. Sie mochten C++, aber es war nicht zuverlässig in dem Sinne, dass ein an einen Computer gesendetes Programm diesem Computer Schaden zufügen konnte. Dann beschlossen sie, eine neue Programmiersprache, Java, auf Basis von C++ zu entwickeln, die solche Probleme nicht haben würde. Java ist eine objektorientierte Sprache, die zur Lösung verschiedener Anwendungsprobleme verwendet wird. Da diese Sprache einfach und beliebt ist, werden wir sie als Beispiele verwenden.

Da Java nur eine Programmiersprache ist, ist es möglich, einen Compiler zu schreiben, der es für Pentium, SPARC oder jeden anderen Computer konvertiert. Es gibt solche Compiler. Diese Sprache wurde jedoch in erster Linie entwickelt, um Programme zwischen Computern über das Internet zu senden, ohne dass Benutzer sie ändern müssen. Wenn jedoch ein Java-Programm für SPARC kompiliert wurde, konnte es beim Senden über das Internet an den Pentium dort nicht mehr ausgeführt werden.

Um dieses Problem zu lösen, hat Sun eine neue virtuelle Maschine namens JVM (Java Virtual Machine) entwickelt. Der Speicher dieser Maschine bestand aus 32-Bit-Wörtern, die Maschine unterstützte 226 Befehle. Die meisten Befehle waren einfach, aber einige ziemlich komplexe Befehle erforderten zur Ausführung eine große Anzahl von Speicherzugriffszyklen.

Sun hat einen Compiler entwickelt, der Java-Programme in die JVM-Ebene konvertiert, sowie einen JVM-Interpreter zum Ausführen dieser Programme.

Dieser Interpreter wurde in der Sprache C geschrieben und konnte daher auf fast jedem Computer verwendet werden. Damit auf einem Computer Java-Binärprogramme ausgeführt werden können, musste lediglich der JVM-Interpreter für den entsprechenden Computer (z. B. ein Pentium II mit Windows 98 oder ein SPARC mit einem UNIX-System) zusammen mit bestimmten Unterstützungsprogrammen erworben werden und Bibliotheken. Darüber hinaus verfügen die meisten Browser im Internet über einen JVM-Interpreter, der die Ausführung von Applets (kleinen Java-Binärprogrammen, die mit World Wide Web-Seiten verknüpft sind) erleichtert.

Die meisten dieser Applets unterstützen

Was für Computer es gibt, ist eine ewige Frage der jüngeren Generation.

Es gibt zwei Haupttypen von Computern: analoge und digitale.

Sie unterscheiden sich im Aufbauprinzip, der Art der internen Informationsdarstellung und der Reaktion auf Befehle.

Analoge Computer

Ein analoger Computer ist eine Maschine, die arithmetische Berechnungen für Zahlen durchführt, die durch physikalische Einheiten dargestellt werden.

In mechanischen Analogcomputern werden Zahlen beispielsweise durch die Anzahl der Umdrehungen der Zahnräder eines Mechanismus dargestellt.

Elektrische Analogmaschinen nutzen Spannungsunterschiede zur Darstellung von Zahlen.

Ein wesentliches Merkmal analoger Computer besteht darin, dass sich die Größen, die digitale Daten darstellen, im Laufe der Zeit ständig ändern.

Daher unterscheiden sich analoge Computer von den gebräuchlicheren digitalen Computern, die nur in Schritten mit Zahlen oder Mengen arbeiten.

Analogrechner sind meist mechanische oder elektrische Maschinen, die Additions-, Subtraktions-, Multiplikations- und Divisionsoperationen durchführen können.

Die Ausgabe solcher Computer kann in Form von Diagrammen ausgedrückt werden, die auf einem Oszilloskopbildschirm oder auf Papier gezeichnet werden, oder in Form eines elektrischen Signals, das zur Steuerung eines Prozesses oder des Betriebs eines Mechanismus verwendet wird.

Diese Computer eignen sich hervorragend zur automatischen Steuerung von Produktionsprozessen, da sie sofort auf Änderungen der Eingabeinformationen reagieren.

Sie werden auch in der wissenschaftlichen Forschung eingesetzt, insbesondere in den Bereichen der Wissenschaft, in denen billige elektrische oder mechanische Geräte die untersuchten Situationen simulieren können.

In einigen Fällen ist es mit analogen Computern möglich, Probleme zu lösen, ohne sich Gedanken über die Genauigkeit der Berechnungen machen zu müssen, als wenn man ein Programm für einen digitalen Computer schreibt.

Beispielsweise können für elektronische Analogrechner Probleme, die die Lösung von Differentialgleichungen, Integration oder Differentiation erfordern, einfach umgesetzt werden.

Ein Autogetriebe ist ein Beispiel für ein analoges Computerprogramm, das sich ändert, wenn der Schaltknauf bewegt wird, wodurch die Flüssigkeit im hydraulischen Antrieb die Flussrichtung ändert, wodurch das gewünschte Ergebnis erzielt werden kann.

Neben technischen Anwendungen (Automatikgetriebe, Musiksynthesizer) werden analoge Computer zur Lösung spezifischer Rechenprobleme praktischer Natur eingesetzt.

Digitale Computer

Es gibt vier Haupttypen digitaler Computer:

  • Supercomputer;
  • große Computer (Mainframes);
  • Minicomputer;
  • Mikrocomputer.

Dabei handelt es sich um sehr leistungsstarke Computer mit einer Leistung von über 100 Megaflops (1 Megaflop entspricht einer Million Gleitkommaoperationen pro Sekunde). Sie werden als ultraschnell wirkend bezeichnet.

Bei diesen Maschinen handelt es sich um Multiprozessor- und (oder) Multimaschinenkomplexe, die mit gemeinsam genutztem Speicher und einem gemeinsamen Feld externer Geräte arbeiten.

Die Architektur von Supercomputern basiert auf den Ideen der Parallelität und des Pipeline-Computings.

In diesen Maschinen werden viele ähnliche Vorgänge parallel, also gleichzeitig, ausgeführt (dies wird als Multiprocessing bezeichnet). Somit wird nicht für alle Aufgaben eine Höchstleistung bereitgestellt, sondern nur für Aufgaben, die parallelisiert werden können.

Eine Besonderheit von Supercomputern sind Vektorprozessoren, die mit Geräten zur parallelen Ausführung von Operationen mit mehrdimensionalen digitalen Objekten – Vektoren und Matrizen – ausgestattet sind. Sie verfügen über integrierte Vektorregister und einen parallelen Pipeline-Verarbeitungsmechanismus.

Wenn der Programmierer auf einem herkömmlichen Prozessor nacheinander Operationen an jeder Vektorkomponente ausführt, gibt er auf einem Vektorprozessor Vektorbefehle gleichzeitig aus.

Supercomputer werden zur Lösung von Problemen in der Aerodynamik, Meteorologie, Hochenergiephysik und Geophysik eingesetzt.

Auch im Finanzsektor haben Supercomputer bei der Verarbeitung großer Transaktionsvolumina an Börsen ihren Einsatz gefunden.

Großrechner

Großrechner- Dies sind universelle, große Allzweckcomputer.

Sie dominierten den Computermarkt bis in die 1980er Jahre.

Mainframes wurden ursprünglich für die Verarbeitung riesiger Informationsmengen entwickelt.

Mainframes sollen eine Vielzahl wissenschaftlicher und technischer Probleme lösen und sind komplexe und teure Maschinen. Der Einsatz empfiehlt sich in Großanlagen mit mindestens 200 – 300 Arbeitsplätzen.

Der größte Mainframe-Hersteller ist IBM.

Mainframes zeichnen sich durch außergewöhnliche Zuverlässigkeit, hohe Leistung und einen sehr hohen Durchsatz an Ein- und Ausgabegeräten aus. An sie können Tausende von Benutzerterminals oder Mikrocomputern angeschlossen werden.

Großkonzerne, Regierungsbehörden und Banken nutzen Großrechner.

Minicomputer

Minicomputer nehmen eine Zwischenstellung zwischen Großrechnern und Mikrocomputern ein.

In den meisten Fällen verwenden Minicomputer die RISC- und UNIX-Architektur und fungieren als Server, an die Dutzende oder Hunderte von Terminals oder Mikrocomputern angeschlossen sind.

Minicomputer werden in großen Unternehmen, staatlichen und wissenschaftlichen Einrichtungen, Bildungseinrichtungen und Rechenzentren zur Lösung von Problemen eingesetzt, die Mikrocomputer nicht bewältigen können, sowie zur zentralen Speicherung und Verarbeitung großer Informationsmengen.

Die wichtigsten Hersteller von Minicomputern sind IT&T, Intel, Hewlett-Packard und Digital Equipment.

Mikrocomputer sind Computer, die über eine zentrale Recheneinheit in Form eines Mikroprozessors verfügen.

Mikrocomputer für allgemeine Zwecke, die für einen Benutzer konzipiert sind und von einer Person gesteuert werden – Personalcomputer oder Kurzzeitcomputer PC.

Persönliche Computer

Persönliche Computer Erhältlich in stationärer (Desktop) und tragbarer Version.

Desktop-Mikrocomputer bestehen in den meisten Fällen aus einer separaten Systemeinheit, die interne Geräte und Komponenten sowie separate externe Geräte (Monitor, Tastatur, Maus) beherbergt, ohne die der Einsatz moderner Computer undenkbar ist.

Bei Bedarf können weitere externe Geräte (Drucker, Scanner, Lautsprechersysteme, Joystick) an die Mikrocomputer-Systemeinheit angeschlossen werden.

Tragbare Personalcomputer

Tragbare Personalcomputer vor allem in der Notebook-Version bekannt.

Bei einem Laptop sind alle externen und internen Geräte in einem Gehäuse verbunden.

Genau wie bei einem Desktop-Mikrocomputer können an einen Laptop weitere externe Geräte angeschlossen werden.

PDA, elektronische Organizer oder Palmtops

PDAs gelten als eigenständige Art von Mikrocomputern ( PDA, elektronische Organisatoren, oder Palmtops), kleine Geräte mit einem Gewicht von bis zu 500 Gramm, die in eine Hand passen.

Die Steuerung erfolgt in der Regel über einen Bildschirm mit geringer Größe und Auflösung, der mit dem Finger oder einem speziellen Stift (Stylus) druckempfindlich ist und über keine Tastatur oder Maus verfügt. Einige Modelle verfügen jedoch über eine feststehende oder einziehbare Miniaturtastatur.

Solche Geräte verwenden hocheffiziente Prozessoren und kleine Flash-Laufwerke, sodass ihre Rechenleistung nicht mit der von Desktop-PCs vergleichbar ist.

Sie enthalten jedoch alle Funktionen eines Personal Computers: Prozessor, Speicher, RAM, Monitor, Betriebssystem, Anwendungssoftware und sogar Spiele.

Taschen-PCs mit Mobiltelefonfunktionen (Kommunikatoren) erfreuen sich immer größerer Beliebtheit. Mit dem integrierten Kommunikationsmodul können Sie nicht nur Anrufe tätigen, sondern sich auch überall dort mit dem Internet verbinden, wo eine kompatible Mobilfunkverbindung (GSM/GPRS, CDMA) besteht.

Um die gesamte Klasse der Handheld-Computer im Englischen zu bezeichnen, wird der Ausdruck „Personal Digital Assistant“ (PDA) verwendet, der ins Russische als „persönlicher digitaler Sekretär“ übersetzt werden kann.

Es gibt auch IBM PC-kompatible Mikrocomputer (sprich IBM PC) und IBM PC-inkompatible Mikrocomputer.

Ende der 1990er Jahre machten IBM PC-kompatible Mikrocomputer mehr als neunzig Prozent des weltweiten Computerbestands aus. Der IBM PC wurde im August 1981 von der amerikanischen Firma IBM (IBM) entwickelt; Bei der Erstellung wurde das Prinzip der offenen Architektur angewendet, was die Verwendung vorgefertigter Blöcke und Geräte im Design beim Zusammenbau eines Computers sowie die Standardisierung von Methoden zum Anschluss von Computergeräten bedeutet.

Das Prinzip der offenen Architektur trug zur weiten Verbreitung IBM PC-kompatibler Klon-Mikrocomputer bei. Mit der Montage begannen viele Unternehmen, die im freien Wettbewerb den Preis von Mikrocomputern um ein Vielfaches senken und die neuesten technischen Errungenschaften energisch in die Produktion einführen konnten. Anwender wiederum konnten ihre Mikrocomputer selbstständig aufrüsten und mit Zusatzgeräten von Hunderten Herstellern ausstatten.

Der einzige IBM PC-inkompatible Mikrocomputer, der relativ weit verbreitet ist, ist der Mac (Macintosh) von Apple. Führt das Betriebssystem Mac OS (derzeit Mac OS X) aus.

Macintosh-Computer können als vollwertige Workstations, Spezialcomputer und auch als Bürocomputer verwendet werden.

Es gibt eine große Auswahl an Software – System und Anwendung, einschließlich solcher, die in Dateiformaten mit gängigen PC-Programmen (z. B. Microsoft Word, Adobe Photoshop) kompatibel sind.

Historisch gesehen wurden Macintosh-Computer häufig in der Computergrafik- und Druckindustrie eingesetzt.

In der zweiten Hälfte der 1990er Jahre entstand aufgrund der rasanten Entwicklung globaler Computernetzwerke ein neuer Typ von Personal Computern – ein Netzwerkcomputer, der ausschließlich für die Arbeit in einem Computernetzwerk konzipiert ist.

Ein Netzwerkcomputer benötigt keinen eigenen Festplattenspeicher oder eigene Laufwerke.

Er erhält das Betriebssystem, Programme und Informationen aus dem Netzwerk.

Es wird erwartet, dass Netzwerkcomputer deutlich günstiger sein werden als Desktop-PCs und diese nach und nach in Unternehmen ersetzen werden, die mit Spezialanwendungen (Telefonie, Ticketbuchung) arbeiten, sowie in Bildungseinrichtungen.

Computer(Computer - „Rechner“), Computer(elektronischer Computer) – ein Computer zum Übertragen, Speichern und Verarbeiten von Informationen.

Der Begriff „Computer“ und die in der UdSSR übernommene Abkürzung „EVM“ (elektronischer Computer) sind synonym. Nach dem Aufkommen von Personalcomputern wurde der Begriff Computer jedoch praktisch nicht mehr verwendet. Derzeit wird die Abkürzung „Computer“ hauptsächlich im historischen Sinne verwendet – zur Bezeichnung von Computergeräten aus den 1940er bis 1970er Jahren, insbesondere aus sowjetischer Produktion, und auch als juristischer Begriff in juristischen Dokumenten.

Mit Hilfe von Berechnungen ist ein Computer in der Lage, Informationen nach einem vorgegebenen Algorithmus zu verarbeiten. Computer haben ihren Namen von ihrer Hauptfunktion – der Durchführung von Berechnungen. Heutzutage werden die meisten Computer zur Verarbeitung und Verwaltung von Informationen sowie für Spiele verwendet, aber diese Aufgaben für einen Computer sind auch eine Folge von Berechnungen.

Physikalisch gesehen kann ein Computer aufgrund der Bewegung mechanischer Teile, der Bewegung von Elektronen, Photonen, Quantenteilchen oder durch die Nutzung der Auswirkungen anderer physikalischer Phänomene funktionieren.

Die Computerarchitektur kann das zu lösende Problem direkt modellieren und die untersuchten physikalischen Phänomene so genau wie möglich widerspiegeln (im Sinne einer mathematischen Beschreibung). Somit können Elektronenflüsse als Modelle von Wasserflüssen bei der Modellierung von Dämmen oder Talsperren verwendet werden. Auf diese Weise konstruierte analoge Computer waren in den 1960er Jahren üblich, heute sind sie jedoch recht selten geworden.

Bei den meisten modernen Computern wird das Problem zunächst in einer für sie verständlichen Form beschrieben (in diesem Fall werden alle notwendigen Informationen meist in binärer Form dargestellt – in Form von Einsen und Nullen, obwohl es auch Computer gab, die die Ternärzahl verwendeten). System), wonach die Aktionen zu seiner Verarbeitung auf die Verwendung einer einfachen Logikalgebra reduziert werden. Da praktisch die gesamte Mathematik auf boolesche Operationen reduziert werden kann, kann ein ausreichend schneller elektronischer Computer zur Lösung der meisten mathematischen Probleme sowie der meisten Iverwendet werden, die auf mathematische Probleme reduziert werden können.

Man hat herausgefunden, dass Computer nicht jedes mathematische Problem lösen können. Probleme, die nicht von Computern gelöst werden können, wurden erstmals vom englischen Mathematiker Alan Turing beschrieben.

Das Ergebnis einer erledigten Aufgabe kann dem Benutzer über verschiedene Ein-/Ausgabegeräte präsentiert werden, wie z. B. Lampenanzeigen,

Klassifizierung von Computern.

Definition eines Computers.

Auf der linken und rechten Seite der Gleichung stehen die Summen der elektrischen Effekte in den vertikalen Abschnitten des Entwurfsdiagramms.

Die Gleichung wird nach h 1 gelöst. Durch Ersetzen der EV-Ausdrücke (siehe Formeln 5, 7, 8) erhalten wir:

Personalcomputer (PCs) und ihre Klassifizierung.

(Folie 1)

1. Definition eines Computers.

2. Klassifizierung von Computern nach Funktionsprinzip

3. Klassifizierung von Computern nach Entstehungsstadien und Elementbasis.

4. Klassifizierung nach den Funktions- und Nutzungsgrundsätzen.

4.1. Große Computer bzw Großrechner.

4.2. Kleine Computer bzw Mini - Computer.

4.3. Mikrocomputer bzw Mikro - Computer .

5. Netzwerkklassifizierung von Computern.

6. Personalcomputer (PCs) und ihre Klassifizierung.

6.1. Klassifizierung gemäß Spezifikation PC99.

6.2. Einteilung nach Spezialisierungsgrad.

6.3. Klassifizierung nach Verwendungszweck und Standardgrößen.

6.4. Kompatibilitätsklassifizierung

6.5. Klassifizierung nach Art des verwendeten Prozessors.

7. Wichtigste Schlussfolgerungen.
1. Definition eines Computers.

Vorläufige Definitionen .

· Technische Informatik - eine Reihe von Geräten, die für die automatische oder automatisierte Datenverarbeitung ausgelegt sind .

· Computersystem - ein spezifischer Satz interagierender Geräte und Programme, die für die Bedienung eines Arbeitsplatzes konzipiert sind.

· Computer (elektronischer Computer) oder Computer - ­ das zentrale Gerät der meisten Computersysteme.

· Computer - Hierbei handelt es sich um ein universelles elektronisches Gerät zur Automatisierung der Prozesse und Arbeiten beim Erstellen, Speichern, Verarbeiten, Transportieren, Reproduzieren und Ausgeben von Daten.

Grundlegende Definition.

Elektronischer Computer oder Computer - Dabei handelt es sich um eine Reihe von Hardware und Software, die dazu dient, die Vorbereitung und Lösung von Benutzeraufgaben zu automatisieren. Unter Benutzer die Person verstehen, in deren Interesse die Daten verarbeitet werden. Reduzierung der Arbeitsintensität bei der Vorbereitung von Problemen zur Lösung, effektive Nutzung einzelner Hardware, Software usw Computer im Allgemeinen sowie die Erleichterung ihrer Bedienung Computer verfügt über einen speziellen Satz an Softwaretools.

Einige Software bietet Benutzerinteraktion mit Computer und ist eine Art Vermittler zwischen ihnen. Sie hat den Namen bekommen operationssystem und ist Kernsoftware Computer.

Unter Software ist verstanden eine Reihe von Softwaretools für den regelmäßigen Gebrauch, mit dem Ziel, den notwendigen Service für Benutzer zu schaffen.

2. Klassifizierung von Computern nach Funktionsprinzip.


Computer können nach einer Reihe von Merkmalen klassifiziert werden, insbesondere nach:

· Funktionsprinzip;

· Phasen der Erstellung und Elementbasis;

· Zweck;

· Methode zur Organisation des Rechenprozesses;

· Größe, Rechenleistung;

· Funktionalität;

· Fähigkeit, Programme parallel auszuführen usw.

Von Funktionsprinzip Computer werden in drei große Klassen eingeteilt:

· analog;

· Digital;

· Hybrid.

Digitaler Computer- digitale Computer oder diskrete Rechenmaschinen – arbeiten mit Informationen, die in diskreter bzw. digitaler Form dargestellt werden.

AVM- Analoge Computer oder kontinuierliche Rechenmaschinen – arbeiten mit Informationen, die in kontinuierlicher (analoger) Form dargestellt werden, also in Form einer kontinuierlichen Reihe von Werten einer beliebigen physikalischen Größe (meistens elektrische Spannung).

GVM - Hybrid-Rechner oder kombinierte Computer – arbeiten mit Informationen, die sowohl in digitaler als auch in analoger Form präsentiert werden; sie vereinen Vorteile AVM Und Digitaler Computer. GVM Es empfiehlt sich, damit Probleme bei der Verwaltung komplexer technischer Hochgeschwindigkeitssysteme zu lösen.

In Wirtschaft , in Wissenschaft und Technologie haben überwältigende Anwendung gefunden Digitaler Computer mit elektrische Darstellung diskreter Informationen - elektronische digitale Computer, normalerweise einfach genannt elektronisches Rechnen Autos (COMPUTER).

3. Klassifizierung von Computern nach Entstehungsstadien und Elementbasis.

Die wichtigsten Etappen und Trends in der Entwicklung von Computern, ihrer Hardware und Software - (Folie 2)

Von Phasen der Schöpfung Und Elementbasis Computer werden herkömmlicherweise in Generationen eingeteilt:

1. Generation, 50er Jahre: Computer mit elektronischen Vakuumröhren.

Das wichtigste aktive Element von Computern erste Generation war eine Elektronenröhre, die restlichen Komponenten elektronischer Geräte sind gewöhnliche Widerstände, Kondensatoren und Transformatoren. RAM schon aus der Mitte aufbauen 50er Jahre Seit Jahren werden speziell für diesen Zweck entwickelte Elemente eingesetzt – Ferritkerne. Als Ein-/Ausgabegeräte wurden zunächst Standardtelegrafengeräte (Fernschreibmaschinen, Bandlocher, Sender, Zähl- und Stanzmaschinengeräte) verwendet, dann wurden speziell elektromechanische Speichergeräte auf Magnetbändern, Trommeln, Disketten und Hochgeschwindigkeitsdruckgeräten entwickelt.

Computer dieser Generation waren groß, verbrauchten viel Strom, hatten eine relativ niedrige Geschwindigkeit, eine geringe RAM-Kapazität und eine geringe Zuverlässigkeit. Die Geschwindigkeit dieser Maschinen lag zwischen mehreren hundert und mehreren tausend Operationen pro Sekunde, die Speicherkapazität betrug mehrere tausend Maschinenwörter und die Zuverlässigkeit wurde in mehreren Betriebsstunden berechnet.

Bei ihnen wurde nur die sechste Stufe automatisiert, da es praktisch keinerlei Software gab. Alle fünf vorherigen mussten vom Benutzer selbst manuell erstellt werden, bis hin zur Beschaffung von Maschinencodes für die Programme. Der arbeitsintensive und routinemäßige Charakter dieser Arbeiten war die Ursache für zahlreiche Fehler bei den Aufgaben. Deshalb in Computer In den folgenden Generationen erschienen zunächst Elemente und dann ganze Systeme, die den Prozess der Vorbereitung von Problemen zur Lösung erleichterten.

2. Generation, 60er Jahre: Computer basierend auf diskreten Halbleiterbauelementen (Transistoren).

Zum Ersetzen von Lampen in Autos zweite Generation (Start 60er Jahre des 20. Jahrhunderts) Transistoren angekommen. Computer verfügten über eine höhere Geschwindigkeit, RAM-Kapazität und Zuverlässigkeit. Alle Hauptmerkmale erhöht um 1-2 Befehl. Die Abmessungen, das Gewicht und der Stromverbrauch wurden deutlich reduziert. Eine große Errungenschaft war die Verwendung gedruckter Leitungen. Die Zuverlässigkeit elektromechanischer Ein-/Ausgabegeräte, deren spezifisches Gewicht zugenommen hat, ist gestiegen. Maschinen der zweiten Generation verfügten zunehmend über größere Rechen- und Logikfähigkeiten.

Ein Merkmal der Maschinen der zweiten Generation ist ihre Differenzierung nach Anwendungen. Computer erschienen, um wissenschaftliche, technische und wirtschaftliche Probleme zu lösen, Produktionsprozesse und verschiedene Objekte zu steuern (Maschinen zu steuern).

Zusammen mit technischen Verbesserungen Computer Es werden Methoden und Techniken zur Programmierung von Berechnungen entwickelt, deren höchstes Niveau die Entstehung automatisierter Programmiersysteme ist, die die harte Arbeit von Mathematikern und Programmierern erheblich erleichtern. Algorithmensprachen haben eine große Entwicklung und Anwendung erfahren ( ALGOL, FORTRAN usw.), wodurch der Prozess der Vorbereitung von Problemen zur Lösung erheblich vereinfacht wird. Mit dem Aufkommen algorithmischer Sprachen ging die Zahl der reinen Programmierer stark zurück, da die Benutzer selbst Programme in diesen Sprachen schreiben konnten.

3. Generation, 70er Jahre: Computer auf Basis integrierter Halbleiterschaltkreise mit niedrigem und mittlerem Integrationsgrad (Hunderte – Tausende von Transistoren in einem Gehäuse).

Dritte Generation von Computern(Am Ende 1960er Jahre- Anfang 1970er Jahre Jahre) ist durch die weite Verbreitung integrierter Schaltkreise gekennzeichnet.

Integrierter Schaltkreis- eine spezielle elektronische Schaltung in Form eines einzelnen Halbleiterkristalls, die eine große Anzahl aktiver Elemente (Dioden und Transistoren) kombiniert - ist ein vollständiger logischer und funktionaler Block, der einer ziemlich komplexen Transistorschaltung entspricht.

Durch den Einsatz integrierter Schaltkreise konnten die technischen und betrieblichen Eigenschaften von Maschinen verbessert werden. Die Computertechnologie verfügt mittlerweile über eine breite Palette von Geräten, die den Aufbau vielfältiger Datenverarbeitungssysteme mit Schwerpunkt auf verschiedenen Anwendungen ermöglichen. Dies wurde auch durch den Einsatz des sogenannten erleichtert. mehrschichtige gedruckte schaltungsanordnung .

Bei Computern der dritten Generation hat sich das Angebot an verschiedenen elektromechanischen Ein- und Ausgabegeräten deutlich erweitert. Ein charakteristisches Merkmal der Entwicklung von Softwaretools dieser Generation ist die Entstehung eines ausgeprägten Software (VON) und die Entwicklung seines Kerns - Betriebssysteme , verantwortlich für die Organisation und Verwaltung des Computerprozesses. Hier steht das Wort „ Computer„wurde zunehmend durch das Konzept ersetzt“ Computersystem ", was größtenteils die Komplikation sowohl der Hardware- als auch der Softwareteile widerspiegelte Computer.

Operationssystem (Betriebssystem) plant die Reihenfolge der Verteilung und Nutzung Ressourcen Computersystem und sorgt auch für deren koordinierten Betrieb.

Unter Ressourcen Normalerweise verstehen Sie die Werkzeuge, die für Berechnungen verwendet werden:

Maschinenzeit einzelner Prozessoren bzw Computer, im System enthalten;

· Mengen an RAM und externem Speicher;

· separate Geräte,

· Informationsarrays;

· Programmbibliotheken;

· separate Programme, sowohl allgemeine als auch spezielle Anwendungen usw.

Maschinen der dritten Generation haben die Möglichkeit, Teilnehmern in unterschiedlichen Entfernungen (z. B. Dutzende und Hunderte von Kilometern) direkten Zugriff auf sie zu ermöglichen, erheblich erweitert. Die Bequemlichkeit der Kommunikation zwischen dem Teilnehmer und der Maschine wird durch ein entwickeltes Netzwerk von Teilnehmerpunkten erreicht, die mit verbunden sind Computer Informationskommunikationskanäle und zugehörige Software.

4. Generation, 80-90er Jahre: Computer, die auf großen und ultragroßen integrierten Schaltkreisen basieren, von denen der wichtigste ein Mikroprozessor ist (Hunderttausende – Zehnmillionen aktive Elemente in einem Chip).

BIS - große integrierte Schaltkreise enthalten dicht gepackte aktive Elemente. Alle elektronischen Computergeräte 1 Generation, die die Halle mit einer Fläche von belegte 100-150 qm M untergebracht in einem Mikroprozessor mit einer Fläche 1,5-2 qm cm. Die Abstände zwischen aktiven Elementen in einem sehr großen integrierten Schaltkreis betragen Zehntel Mikrometer. Zum Vergleich: Die Dicke eines menschlichen Haares beträgt mehrere zehn Mikrometer.

Für Autos vierte Generation (80er Jahre des 20. Jahrhunderts) typische Anwendung große integrierte Schaltkreise (BIS). Ein hoher Integrationsgrad hat zu einer Erhöhung der Packungsdichte elektronischer Geräte, einer Komplikation ihrer Funktionen, einer höheren Zuverlässigkeit und Geschwindigkeit sowie geringeren Kosten beigetragen. Der Zusammenhang zwischen der Struktur der Maschine und ihrer Software, insbesondere dem Betriebssystem, wird enger.

In den Tiefen der vierten Generation mit dem Aufkommen von USA Mikroprozessoren ( 1971.) Eine neue Klasse von Computern ist aufgetaucht - Mikro Computer, das durch ersetzt wird 1980er Jahre kam persönlich Computer T Epochen ( PC). In dieser Klasse Computer zusammen mit BIS begann verwendet zu werden ultragroße integrierte Schaltkreise (VLSI) 32-, Und danach 64- Bittiefe.

5. Generation – heute: Computer mit vielen Dutzend parallel arbeitenden Mikroprozessoren, die den Aufbau effektiver Wissensverarbeitungssysteme ermöglichen; Computer auf hochkomplexen Mikroprozessoren mit Parallelvektorstruktur, die gleichzeitig Hunderte von sequentiellen Programmbefehlen ausführen.

6. und nachfolgende Generationen: optoelektronische Computer mit massiver Parallelität und neuronaler Struktur, mit einem verteilten Netzwerk aus Zehntausenden einfacher Mikroprozessoren, die die Architektur neuronaler biologischer Systeme modellieren.

Die Leistung jeder nächsten Computergeneration und die Kapazität aller Speichergeräte steigt in der Regel um mehr als eine Größenordnung. Die Computertechnologien haben sich entsprechend weiterentwickelt (Folie 3).

4. Klassifizierung nach den Funktions- und Nutzungsgrundsätzen.

Unterscheiden (Folie 4):

· große Computer ( Computer ) oder Großrechner,

· kleine Computer oder Mini - Computer ,

· Mikrocomputer oder Mikro - Computer ,

· PC - Personalcomputer (Einstufung PC wird weiter unten besprochen).

4.1. Große Computer oder Großrechner.

Die leistungsstärksten Computer wurden für die Bedienung sehr großer Organisationen und ganzer Sektoren der Volkswirtschaft eingesetzt. Service Personal groß Computer beläuft sich auf viele Dutzend Menschen. Basierend auf solchen Supercomputern erstellen sie VC - Rechnen Zentren, einschließlich mehrerer Abteilungen oder Gruppen.

Trotz der weit verbreiteten PC, Bedeutung groß Computer nimmt nicht ab. Aufgrund der hohen Kosten für ihre Wartung während des Betriebs groß Computer Es ist üblich, jede Minute zu planen und zu berücksichtigen. Um Betriebszeit zu sparen groß Computer Mit werden leistungsschwache Vorgänge der Eingabe, Ausgabe und Primärdatenaufbereitung durchgeführt PC, in einem Komplex arbeitend. Die aufbereiteten Daten werden an übermittelt groß Computer.

Central Processing Unit (CPU)- Hauptblock COMPUTER - Block der Datenverarbeitung und Ergebnisberechnung. CPU und Laufwerke sind mehrere Geräteracks und befinden sich in einem separaten Raum – dem sogenannten. hermetische Zone , bei dem erhöhte Anforderungen an Temperatur, Luftfeuchtigkeit, Schutz vor elektromagnetischen Störungen und Staub erfüllt werden.

Großrechner werden durch die folgenden Strukturabteilungen bedient VC:

· Systemprogrammierungsgruppe bietet Software und Hardware Schnittstelle Computersystem. Personal - Systemprogrammierer .

· Gruppe für Anwendungsprogrammierung bietet Benutzeroberfläche Computersystem . Personal - Anwendungsprogrammierer.

· Datenvorbereitungsgruppe .

· Technische Supportgruppe.

· Informationsunterstützungsgruppe - erstellt und speichert Archive zuvor entwickelter Programme und gesammelter Daten - Programmbibliotheken oder Datenbanken .

· Abteilung für Datenausgabe. Informationen werden auf Druckgeräten gedruckt - Drucker oder auf Bildschirmen angezeigt werden.

Großrechner Sie zeichnen sich durch hohe Ausrüstungs- und Wartungskosten aus, sodass der Betrieb solcher Supercomputer in einem kontinuierlichen Zyklus organisiert ist. Gleichzeitig arbeitet der Computer zur Steigerung der Effizienz gleichzeitig mit mehreren Aufgaben und dementsprechend mit mehreren Benutzern. Die Verteilung der Ressourcen des Computersystems wird aufgerufen Time-Sharing-Prinzip .

Große Computer werden oft im Ausland angerufen Großrechner; Dazu gehören in der Regel Computer, die über Folgendes verfügen: Minimum :

· Produktivität, nicht weniger 100 MIPS;

Hauptspeicher mit einer Kapazität von 512 Vor 10.000 MB T;

Externer Speicher nicht weniger 100 GB;

· Mehrbenutzer-Betriebsmodus (gleichzeitig bedienen von 16 Vor 1000 Benutzer).

Hauptrichtungen einer wirksamen Anwendung Großrechner - Lösen wissenschaftlicher und technischer Probleme, Arbeiten in Computersystemen mit Stapelverarbeitung von Informationen, Arbeiten mit großen Datenbanken, Verwalten von Computernetzwerken und deren Ressourcen. Die letzte Richtung ist die Verwendung Großrechner B. große Server für Computernetzwerke – von Experten oft als die relevantesten angesehen.

Der Vorfahre moderner Großrechner, nach deren Maßstäben in den letzten Jahrzehnten in den meisten Ländern der Welt Maschinen dieser Klasse entwickelt wurden, sind die Maschinen des Unternehmens IBM.

1. Generation Großrechner - Modelle IBM 360 Und IBM 370 mit ihrer Architektur und Software wurden als Grundlage für die Schaffung eines heimischen Systems großer Maschinen herangezogen ES-COMPUTER.

2. Generation Großrechner (1979) - IBM 3090, IBM 4300;

3. Generation Großrechner (1990) - IBM ES/9000;

4. Generation Großrechner :

· 1997- klein Großrechner S/390 mit RAM-Kapazität bis zu 16 Gigabyte waren eine Familie Großrechner von einem Single-Prozessor-Modell mit hoher Leistung 50 MIPS Vor 10- Prozessormodell mit hoher Geschwindigkeit 500 MIPS. Um die Leistung zu verbessern, können Sie bis zu kombinieren 32 Autos S/390 im sog Cluster .

· 1999 - Großrechner durchschnittliche Produktivität AS/400, welches beinhaltet 12 Modelle. Die maximale RAM-Kapazität der neuen Familie beträgt 16 Gigabyte und Festplattenspeicher - 2,1 TB..

· Zuverlässigkeit,

· Produktivität;

· Kapazität des Haupt- und externen Speichers;

· Zugriffszeit auf den Hauptspeicher;

· Zugriffszeit und Übertragung externer Speichergeräte;

· Eigenschaften des Cache-Speichers;

· Anzahl der Kanäle und Effizienz des Ein-/Ausgabesystems;

· Hardware- und Softwarekompatibilität mit anderen Computer; Netzwerkunterstützung usw.

Ziemlich ausführliche Diskussion Großrechner Dies liegt daran, dass es für einen modernen Computerbenutzer, der an die Allgegenwärtigkeit von PCs gewöhnt ist, schwierig ist, zu erklären, dass es andere Arten von Computertechnologie gibt. Experten zufolge am Großrechner Mittlerweile sind etwa 70 % der Computerinformationen lokalisiert; Hunderttausende allein in den USA installiert Großrechner.

4.2. Kleine Computer bzw Mini- COMPUTER.

Kleincomputer (Minicomputer) ) - zuverlässige und benutzerfreundliche Computer mit etwas geringeren Fähigkeiten im Vergleich zu Großrechnern. Sie zeichnen sich durch ihre geringere Größe und dementsprechend geringere Produktivität und Kosten aus und werden von großen Unternehmen, wissenschaftlichen Einrichtungen, Banken und einigen höheren Bildungseinrichtungen genutzt, die Bildungsaktivitäten mit wissenschaftlichen Aktivitäten kombinieren.

Bei Industrieunternehmen Mini-Computer Sie verwalten Produktionsabläufe, können aber auch das Produktionsmanagement mit anderen Aufgaben kombinieren. Dokumente, mit denen die Arbeit organisiert werden kann Mini-Computer Ein spezielles Rechenzentrum ist ebenfalls erforderlich, wenn auch nicht so zahlreich wie für Großrechner .

Mini-Computer(und der mächtigste von ihnen Supermini-Computer ) haben folgende Eigenschaften:

· Produktivität – bis zu 1000 MIPS;

Hauptspeicherkapazität - bis zu 8000 MB;

· Festplattenspeicherkapazität – bis zu 1000 GB;

Anzahl der unterstützten Benutzer - 16-1024.

Alle Modelle Mini-Computer werden auf Basis mikroprozessorintegrierter Schaltungssätze entwickelt, 32-, 64- und 128- Bit-Mikroprozessoren.

Ihre Hauptmerkmale:

· breites Leistungsspektrum unter spezifischen Anwendungsbedingungen;

· einfache Implementierung von Multiprozessor- und Multimaschinensystemen;

· hohe Geschwindigkeit der Interrupt-Verarbeitung;

· Fähigkeit, mit Datenformaten unterschiedlicher Länge zu arbeiten.

ZU Verdienste Zu den Minicomputern gehören:

· spezifische Architektur mit großer Modularität;

· besser als Großrechner Leistungs-/Preisverhältnis;

Der Vorfahre der Moderne Mini-Computer können als Computer betrachtet werden PDP-11 Firmen DEZ (USA), sie waren der Prototyp des Inlandes Mini -Computer - Kleine Systeme Computer (SM-COMPUTER): SM 1,2,3,4,1400,1700 usw.

Moderne Supermini-Computer holen in ihren Parametern tatsächlich mit Großrechnern auf.

4.3. Mikrocomputer bzw Mikro - Computer .

Computer dieser Klasse stehen vielen Unternehmen zur Verfügung. Organisationen, die verwenden Mikrocomputer , erstellen normalerweise keine Rechenzentren. Um einen solchen Computer zu warten, benötigen sie nur einen kleinen Stab von mehreren Personen.

Die notwendigen Systemprogramme werden in der Regel zusammen mit dem Computer gekauft und die Entwicklung der notwendigen Anwendungsprogramme bei größeren Unternehmen in Auftrag gegeben. VC oder spezialisierte Organisationen oder kaufen Sie fertige Software.

Mikrocomputer sind sehr zahlreich und vielfältig:

· Mehrbenutzer-Mikrocomputer Dabei handelt es sich um leistungsstarke Mikrocomputer, die mit mehreren Videoterminals ausgestattet sind und im Time-Sharing-Modus arbeiten, sodass mehrere Benutzer gleichzeitig effektiv daran arbeiten können.

· Server) - leistungsstarker Mehrbenutzermodus Mikrocomputer in Computernetzwerken, die der Bearbeitung von Anfragen aller gewidmet sind Arbeitsplätze Netzwerke.

· Netzwerkcomputer - vereinfacht Mikrocomputer , Bereitstellung von Arbeiten im Netzwerk und Zugriff auf Netzwerkressourcen, oft spezialisiert auf die Ausführung einer bestimmten Art von Arbeit (Schutz des Netzwerks vor unbefugtem Zugriff, Organisation der Anzeige von Netzwerkressourcen, E-Mail usw.).

Unterklasse wird später separat betrachtet - persönliche Computer ( PC ) - Einzelnutzer Mikrocomputer , die den Anforderungen der allgemeinen Verfügbarkeit und Universalität der Anwendung gerecht werden. Arbeitsplätze sind Einzelbenutzer Mikrocomputer , oft spezialisiert auf die Ausführung einer bestimmten Art von Arbeit (Grafik, Technik, Verlagswesen usw.).

Aus dem Englischen übersetzt bedeutet Computer „Computer“. Es handelt sich um ein Gerät, das eine bestimmte, vorgegebene Abfolge von Vorgängen ausführt. Eine bestimmte Abfolge von Operationen wird als Software bezeichnet. Computer haben ein sehr breites Anwendungsspektrum. Sie werden für alle komplexen Berechnungen, zum Sammeln, Verarbeiten, Speichern, Empfangen und Übertragen von Informationen, zum Steuern von Maschinen und Mechanismen in der Produktion, zum Erstellen von Grafik- und Videobildern mit der Möglichkeit zur Verarbeitung usw. verwendet.

Der Begriff „Computer“

Streng genommen ist der Begriff „Computer“ sehr weit gefasst, da sein Funktionsprinzip auf der Verwendung unterschiedlichster Arbeitsumgebungen und Komponenten basieren kann. Ein Computer kann elektronisch, mechanisch, quantenmechanisch, optisch usw. sein und durch die Bewegung von Photonen, Quanten, mechanischen Teilen usw. funktionieren. Darüber hinaus werden Computer funktionell in zwei Typen unterteilt – elektronische und analoge (mechanische).

Das Wort Computer wurde übrigens erstmals 1887 im Oxford English Dictionary eingeführt. Die Verfasser dieses Lehrbuchs verstanden das Wort „Computer“ als mechanisches Gerät zum Rechnen. Erst viel später, im Jahr 1946, wurde das Wörterbuch um Begriffe ergänzt, die mechanische, analoge und digitale Computer eindeutig beschreiben.

Heutzutage hat sich der Begriff eines Computers stark verengt, da viele Geräte veraltet sind und nicht mehr am Arbeitsplatz verwendet werden, wodurch sich die bestehende Reichweite dieser Geräte verringert.

Computerleistung

Die Geschwindigkeit eines Computers hängt direkt von seiner Rechenleistung ab, also der Geschwindigkeit, mit der bestimmte Vorgänge pro Zeiteinheit ausgeführt werden. Diese Menge heißt „ Flops».

In der Praxis hängt die Geschwindigkeit stark von vielen zusätzlichen Bedingungen ab: der Art der Aufgabe, die auf dem Computer ausgeführt wird, häufiger Datenaustausch zwischen Systemkomponenten usw. Daher wird als Parameter die maximale Rechengeschwindigkeit verwendet – eine bestimmte hypothetische Zahl, die charakterisiert die maximal mögliche Ausführungsgeschwindigkeit von Operationen.

Supercomputer sind beispielsweise Geräte, die Berechnungen mit einer Geschwindigkeit von mehr als 10 Teraflops (das sind zehn Billionen Flops) durchführen können. Zum Vergleich: Der durchschnittliche Haushalts-PC arbeitet mit etwa 0,1 Teraflops.

Um die praktische Leistung von Computergeräten zu bewerten, wurden spezielle Tests entwickelt (im Computer-Slang werden sie oft „ Maßstäbe"), die auf speziellen mathematischen Berechnungen basieren. Die Leistung von Personalcomputern wird üblicherweise aus der Sicht aller ihrer Komponenten beurteilt, um eine abschließende, durchschnittliche Beurteilung ihrer Leistung zu erhalten.

Arten moderner Computer

Wie oben erwähnt, können alle Computer je nach Design, technischen Parametern und Anwendung in verschiedene Typen unterteilt werden:

Elektronische Computer (Computer)

Tatsächlich handelt es sich bei diesem Gerät um eine Sammlung eines ganzen Werkzeugkomplexes, bei dem alle seine Bestandteile aus elektronischen Elementen bestehen. Der Hauptzweck eines solchen Geräts besteht darin, verschiedene Berechnungen durchzuführen und Rechen- oder Informationsprobleme zu lösen.

Heutzutage wird der Begriff zur Bezeichnung einer bestimmten Hardware-Implementierung eines Geräts und als juristischer Begriff in Rechtsdokumenten verwendet. Darüber hinaus wird dieser Begriff sowohl zur Bezeichnung von Computergeräten verwendet, die in den Jahren 1950–1990 hergestellt wurden, als auch für moderne große elektronische Computergeräte, um sie von Personalcomputern zu unterscheiden.

Persönlicher Computer

Ein kostengünstiges, universelles und relativ kompaktes Gerät, das für einen einzelnen Benutzer entwickelt wurde, der es zu Hause oder im Büro verwenden und verschiedene individuelle Aufgaben ausführen kann – Computer, Tippen, Videos ansehen, Musik hören usw. Dieser Vielseitigkeit und Erschwinglichkeit ist es zu verdanken, dass Personalcomputer so weit verbreitet sind.

Am bekanntesten sind die Computer des Unternehmens Apfel und das sogenannte IBM-kompatible Geräte, die derzeit den Löwenanteil des gesamten PC-Marktes einnehmen. Die große Beliebtheit von IBM wurde durch den niedrigeren Preis bei nahezu gleichen Funktionen sichergestellt.

Bis vor Kurzem hatten diese Geräte keine Kompatibilität untereinander – weder Hardware noch Software. Heute gibt es spezielle Software („Emulatoren“), die es ermöglicht, Apple-Programme (mit Einschränkungen) auf IBM-kompatiblen Computern auszuführen und umgekehrt.

Alle Personalcomputer wiederum können in verschiedene Typen unterteilt werden:

Desktop-PCs.