Die Definition von High Performance Computing (HPC) HPC, oder High Performance Computing, ist die Praxis der Konsolidierung von Clustern extrem leistungsstarker Hardware, um eine Vielzahl von anspruchsvollen Berechnungen durchzuführen, die außerhalb der Möglichkeiten eines normalen Computers liegen. Ein Supercomputer ist eines der grundlegendsten Beispiele für HPC-Hardware. Er ist in der Lage, etwa Quadrillionen von Operationen…
Es ist vielleicht unmöglich, alle möglichen Ausfälle und/oder katastrophalen Ereignisse vorherzusagen, wenn es in der modernen Welt um Daten geht. Jedes Unternehmen sollte sein Bestes tun, um sich vor einem Datenverlust zu schützen, der im Falle eines erheblichen Verlustes entweder einen Neubeginn oder sogar einen fatalen Schaden für das Unternehmen bedeuten würde. Um solche katastrophalen…
Einführung Die Bedrohung durch Cyberangriffe ist heute realer denn je. Die Zahl der Datenschutzverletzungen und Cyberkriminalität nimmt von Jahr zu Jahr in einem alarmierenden Tempo zu. Diese Wachstumsraten sind sogar so beunruhigend, dass Cybersecurity Ventures vorhersagt, dass bis zum Jahr 2031 alle 2 Sekunden irgendwo auf der Welt ein Ransomware-Angriff stattfindet, wobei sich die jährlichen…
RedHat OpenShift ermöglicht es Anwendern, ein modulares Paket aus einer Computing-Plattform und einer Reihe von Anwendungen bereitzustellen, zu instanziieren, auszuführen und zu verwalten. Dadurch wird die Komplexität des Aufbaus und der Pflege der Infrastruktur, die wahrscheinlich mit der Entwicklung und dem Start der benötigten Anwendungen und Dienste verbunden wäre, erheblich reduziert. OpenShift stellt einen besonderen…
Wenn Sie ein Unternehmen leiten, wissen Sie, wie wichtig es ist, Ihre Daten zu schützen. Der Verlust von Daten oder der plötzliche Ausfall Ihres Systems ist kostspielig, denn ungeplante Ausfälle können Ihre Produktivität beeinträchtigen und den Ruf Ihres Unternehmens schwer schädigen. Aus diesem Grund verlassen sich viele Unternehmen auf hybride und Multi-Cloud-Umgebungen, um ihre Systeme…
Einführung in Nutanix Nutanix ist eine hybride Software-Plattform mit dem Schwerpunkt auf Skalierbarkeit. Diese Art der Skalierbarkeit wird durch HCI – Hyper-Converged Infrastructure – ermöglicht. Dabei handelt es sich um ein System aus einzelnen Serverinstanzen, die mit Hilfe der oben genannten Softwareplattform als einheitliches System agieren können. Jeder einzelne Server wird als Knoten bezeichnet, und…
Einführung in SAP HANA und die BACKINT-Schnittstelle SAP HANA ist eine vollständige relationale Datenbank und eine Suite von begleitenden Management-Tools zum Speichern, Wiederherstellen, Manipulieren und Analysieren von Daten. Wie jedes gute RDBMS bietet es fortschrittliche Tools für Analysen und Auswertungen und ermöglicht es, Daten in einem standardisierten Format zu sichern und bei Bedarf einfach und…
Was ist eine unveränderliche Sicherung? Es gibt viele verschiedene Ansätze zur Datensicherheit. Einer davon beinhaltet wichtige Daten, die, einmal erstellt, in keiner Weise verändert werden können. Das Wort „Immutable“ kann wörtlich mit „unveränderbar“ oder „immun gegen Veränderungen“ übersetzt werden. Es steht für Daten, die nicht geändert oder gelöscht werden können, sobald sie unveränderlich gemacht wurden….
Was ist HPSS? High-Performance Storage System (HPSS) ist eine hoch skalierbare und flexible Speicherverwaltungssoftware, die von der HPSS Collaboration entwickelt wurde, um ein richtlinienbasiertes und softwaredefiniertes Hierarchical Storage Management (HSM) System bereitzustellen. Diese Technologie ist typischerweise in vielen HPC- (High Performance Computing) und SuperComputing-IT-Umgebungen gefragt. Einer der Gründe dafür ist, dass ein einziger HPSS-Namensraum Milliarden…
Einführung Generell kann man sagen, dass die Sicherung und Wiederherstellung von Daten von einigen IT-Abteilungen im Laufe der Zeit etwas vernachlässigt wurde. In manchen Fällen ist es nicht ungewöhnlich, dass ein Unternehmen dem Thema nicht die Priorität einräumt, die es verdient, und erst nach einem Datenverlust über die korrekte Sicherung seiner Daten nachdenkt. Leider hat…
Definition von Hadoop Hadoop wurde ursprünglich für die Arbeit mit riesigen Datenmengen entwickelt, was gemeinhin als „Big Data“ bezeichnet wird. Es handelt sich um ein Software-Framework mit Open-Source-Charakter, das in der Lage ist, große Datenmengen zu speichern und zu verarbeiten. Hadoop wurde mit Blick auf umfassende Skalierbarkeit entwickelt und bietet hohe Verfügbarkeit, Fehlertoleranz und die…
Cybersicherheit und Ransomware Parallel zur weiten Verbreitung und dem Wachstum des Internets ist die Cybersicherheit immer wichtiger geworden. Sie ist heute wichtiger denn je, denn die Zahl der Angriffe und Datenschutzverletzungen nimmt jedes Jahr stetig zu. Infolgedessen rückt die Cybersicherheit in den Vordergrund der Strategie eines Systemarchitekten und wird in der Regel von den Führungskräften…