Ein Team wissenschaftlicher Forscher in einem Labor arbeitet an Desktop-Computern, um die Inhalte unter einem Mikroskop zu untersuchen.

Skalierung von KI-Workloads in einer HPC-Umgebung

Entdecken Sie, wie Sie dynamische KI-Workloads in Ihren HPC-Umgebungen bereitstellen und skalieren können, um neuartige Einblicke zu gewinnen, Ergebnisse zu beschleunigen und neue Möglichkeiten zu erschließen.

Auf einen Blick

  • Große Datensätze, eine schnellere Wertschöpfung und die Notwendigkeit tieferer Einblicke erhöhen den Bedarf an KI-beschleunigtem HPC.

  • KI in HPC erfordert Technologien, die die Speicherbandbreite und die Rechenleistung maximieren, um datenintensive Workload-Anforderungen zu erfüllen.

  • Hochleistungsfähige Intel® Hardware und Open-Source-Softwarelösungen sind darauf ausgelegt, HPC für wissenschaftliche Entdeckungen zu beschleunigen.

author-image

Von

Betreten Sie das neue Zeitalter des KI-beschleunigten HPCs

Seit Jahren machen Endbenutzer, Systementwickler, Lösungsanbieter und Entwickler die Leistungsfähigkeit von HPC nutzbar, um die weltweit schwierigsten und komplexesten Probleme zu lösen. Das anhaltende Datenwachstum sowie die Notwendigkeit einer schnelleren Wertschöpfung, die Anforderungen an mehr und tiefere Einblicke für wissenschaftliche Entdeckungen und der zusätzliche Zeit- und Kostenzwang verschieben jedoch die Grenzen aktueller Systeme.

Gleichzeitig werden KI-Algorithmen immer ausgefeilter und können viel größere Datensätze als in den vergangenen Jahren verarbeiten, was sie zur idealen Lösung für wachsende wissenschaftliche Workloads macht. Unternehmen, die die Leistungsfähigkeit von KI und HPC gemeinsam nutzen, können ihre Zeit für Einblicke reduzieren, während sie dasselbe Präzisionsniveau erreichen oder übertreffen, was ihnen letztendlich ermöglicht, einige der komplexesten und drängendsten Probleme der Welt zu lösen.

Zum Beispiel trägt die Argonne Leadership Computing Facility (ALCF) des Argonne National Laboratory in Illinois, die zukünftige Heimat des Aurora Exascale HPC-Systems, zur Förderung der wissenschaftlichen Forschung durch eine Konvergenz von HPC, leistungsstarker Datenanalyse und KI bei. Die neuesten Projekte, die für ALCF geplant sind, werden KI zur Modellierung von Bedingungen für Fusionsenergiereaktoren verwenden; nichtinvasive, patientenspezifische Flüssigkeitsmodelle entwickeln, um das Fortschreiten und die Lokalisierung verschiedener menschlicher Krankheiten zu verstehen und die Multiphysik in einem Fusionsreaktor besser zu verstehen.

Entdecken Sie unsere Sammlung von Erfolgsgeschichten der Kunden, um zu erfahren, wie andere Unternehmen und Forschungseinrichtungen KI-beschleunigtes HPC nutzen, um genaue und wirkungsvolle wissenschaftliche Innovationen zu fördern.

Erfahren Sie mehr über die Herausforderungen von KI in HPC

Wenn Sie mit dem Prozess beginnen, Ihre eigene KI-beschleunigte HPC-Initiative zu starten, ist es wichtig, die häufigen Herausforderungen zu verstehen, denen Sie möglicherweise gegenüberstehen.

 

  • Bei KI- und HPC-Konfigurationen gibt es innerhalb der CPU-Architektur traditionell einen Kompromiss zwischen KI- und HPC-Anforderungen. Workloads mit hohem KI-Bedarf verwenden in der Regel weniger Kerne zugunsten der Geschwindigkeit, während HPC-Workloads oft eine höhere Rechenleistung und damit eine hohe Anzahl von Kernen und Bandbreite von Kern zu Kern vorziehen.
  • Immer datenintensivere Workloads wie Modellierung, Simulation und KI führen zu Leistungsengpässen, die Lösungen mit Speicher mit hoher Bandbreite erfordern, der so konzipiert ist, dass er sie freisetzt und beschleunigt.
  • Der hohe Komplexitätsgrad von KI in HPC ist eine wichtige Quelle für Reibungsverluste bei der Einführung. Die Fähigkeiten für KI und HPC sind sehr domänenspezifisch, und es ist schwierig, Talente zu finden, die in beiden Bereichen qualifiziert sind. Ohne dieses Talent könnten KI-beschleunigte HPC-Initiativen jedoch möglicherweise nicht vorankommen.

 

Um Kunden dabei zu helfen, diese Hindernisse zu überwinden, arbeiten wir eng mit der HPC-Community bei der KI-Verwendung zusammen, um unser Fachwissen und Ideen auszutauschen und mit unseren führenden HPC-Technologien innovative Lösungen anzubieten.

Erstellen Sie Ihren KI-beschleunigten HPC-Bereitstellungsplan

Ein wesentlicher Schritt zur Beschleunigung Ihrer HPC-Projekte mit KI ist die Erstellung eines umfassenden Bereitstellungsplans, der die Bedürfnisse und Anforderungen Ihres Unternehmens abdeckt, um sicherzustellen, dass Sie die richtigen Technologien für Forschung und Entwicklung haben.

Wenn Sie Ihrer HPC-Umgebung robuste KI-Funktionen hinzufügen möchten, finden Sie hier einige Fragen, die Sie stellen sollten, damit Sie fundiertere Technologieentscheidungen treffen können:

 

  • Welche Anforderungen an Zeit und Genauigkeit müssen Ihre Ausgaben erfüllen?
  • Welche Arten von Algorithmus-Bias sollten Sie kennen und vermeiden?
  • Welche Kompromisse sind akzeptabel, um Ihre Empfindlichkeits- oder Spezifitätsanforderungen zu erfüllen?
  • Werden sich Ihre Modellwahl, Ihr Datensatz und Ihre Ausgabe in Größe und Richtung ändern?
  • Wo und wie werden Code-Änderungen bei Projekten auftreten?
  • Wie können Sie am besten Code-Änderungen erreichen?
  • Wird von Anwendungsfall zu Anwendungsfall eine erhebliche Menge an Neuschreiben von Code erforderlich?
  • Welche Arten von Workloads und wie viele werden ausgeführt? Wie oft müssen Workloads ausgeführt werden? Werden sie kontinuierlich ausgeführt?

 

Die Antworten auf diese Fragen können Ihnen eine solide Grundlage für Anforderungen bieten, die bei der Erkundung von Systemdesign-Optionen mit Ihrem Technologiepartner verwendet werden müssen.

Wählen Sie eine Technik, die KI-beschleunigte HPC-Entdeckungen ermöglicht

Der Schlüssel zur Realisierung des Versprechens von KI in HPC ist die Auswahl der richtigen Technologien, die zusammenarbeiten, um die Speicherbandbreite und die Rechenleistung zu maximieren, um den Anforderungen Ihrer dynamischen Workload-Profile zu entsprechen.

Intel bietet eine umfassende Reihe von HPC- und KI-Technologien, die auf einem offenen, standardbasierenden, architekturübergreifenden Framework basieren, um die Bereitstellung zu vereinfachen und die flexible Leistung und Funktionalität zu bieten, die Sie zur Erfüllung der Anforderungen Ihrer einzigartigen Workloads benötigen. Darüber hinaus helfen unsere robusten, Open-Source-Softwaretools bei der Beschleunigung der Code-Entwicklung, da Entwickler Code einmal schreiben und auf jedem System im Rechenzentrum und in der Cloud bereitstellen können.

Wählen Sie Hardware mit hoher Leistung und Effizienz

Um mit der Entwicklung Ihrer einzigartigen Kombination von KI-beschleunigten HPC-Technologien zu beginnen, empfehlen wir, mit einer starken Hardware-Grundlage zu beginnen, wie einer mit skalierbaren Intel® Xeon® Prozessoren. Diese CPUs verfügen über integrierte Intel® Accelerator Engines für KI und HPC, einschließlich Intel® Advanced Matrix Extensions (Intel® AMX) und Intel® Advanced Vector Extensions 512 (Intel® AVX-512), um eine herausragende Leistung zur Unterstützung anspruchsvoller HPC- und KI-Workloads zu bieten.

Wenn Ihre Arbeit hochkomplexe Workloads umfasst, die sich auf umfangreiches Training und Inferenz konzentrieren, sollten Sie möglicherweise speziellere Hardware in Betracht ziehen, die einen höheren Durchsatz bietet.

 

  • Intel® Gaudi® KI-Beschleuniger bieten hocheffiziente, skalierbare Rechenleistung, damit Datenwissenschaftler und Ingenieure für maschinelles Lernen mit nur wenigen Code-Zeilen das Training beschleunigen und neue Modelle entwickeln oder migrieren können. Intel® Gaudi® KI-Beschleuniger bieten auch eine unglaubliche Energieeffizienz, um Kosten zu senken und Nachhaltigkeit zu erhöhen.
  • Intel® Xeon® CPU Prozessoren der Max-Reihe bieten die bahnbrechende Leistung, die Sie für zukünftige KI-HPC-Funktionen benötigen, und beheben gleichzeitig Engpässe bei speichergebundenen Workloads. Die Intel® Xeon® CPU der Max-Reihe ist der erste und einzige x86-basierte Prozessor, der mit Speicher mit hoher Bandbreite ausgestattet ist, der bei realen HPC- und KI-Workloads eine bis zu 4,8-mal bessere Leistung im Vergleich zur Konkurrenz bieten kann. 1Um die Auswirkungen der Intel® Max-Reihe CPUs zu maximieren und Ihre anspruchsvollsten Workloads zu übernehmen, kann die Intel® Data Center GPU der Max-Reihe als separate GPU integriert werden. Sie vereint über 100 Milliarden Transistoren in einem Paket und umfasst die hochgeschwindigkeits-, kohärente, einheitliche Intel® Xe Link, um Ihnen die Flexibilität zu bieten, jedes beliebige Format auszuführen und ein Skalieren zu ermöglichen.

 

Unternehmen auf der ganzen Welt verwenden diese Intel® Technologien derzeit zur Förderung ihrer Arbeit. Zum Beispiel verwendet das Texas Advanced Computing Center (TACC) die Intel® Xeon® CPU Max-Reihe, Intel® Data Center GPU Max-Reihe und skalierbare Intel® Xeon® Prozessoren, um die akademische Forschung in den USA zu unterstützen. Währenddessen basiert der argentinische Servicio Meteorológico Nacional (SMN), die Heimat des leistungsstärksten Supercomputers in Lateinamerika für akademische Forschung, auf CPUs und GPUs der Intel® Max-Reihe CPUs und GPUs basiert.

Beschleunigen Sie Ihre HPC- und KI-Projekte mit robusten Softwaretools

Mit der steigenden Nachfrage nach KI und HPC stehen Entwickler vor mehreren Herausforderungen, wenn sie nach Möglichkeiten zur Entwicklung schneller HPC-Apps suchen, die sich leicht über Architekturen hinweg skalieren lassen. Die Umstellung von Software auf HPC-Cluster und die effiziente Programmierung von leistungsstarkem parallelem Computing können für Entwickler einen erheblichen Zeitaufwand bedeuten. Gleichzeitig müssen Entwickler spezialisierte Workloads über Architekturen hinweg beschleunigen und sicherstellen, dass ihr Code mit so vielen Hardwaretypen und Computing-Modellen wie möglich funktioniert – auch ein zeitaufwendiges und kostspieliges Unterfangen.

Um Entwicklern dabei zu helfen, diese Herausforderungen zu meistern, verfolgt Intel einen offenen Ansatz für HPC-Software und HPC-Optimierung, indem es Intel® oneAPI Toolkits mit offener Sprache anbietet, die in heterogenen Netzwerken funktionieren. Dies ermöglicht es Entwicklern, leistungsstarke, optimierte, architekturübergreifende Anwendungen für paralleles Computing schneller und einfacher zu entwickeln.

Das Intel® oneAPI Base Toolkit und das Intel® oneAPI HPC Toolkit ermöglichen es Entwicklern, HPC-Anwendungen über mehrere Arten von Architekturen einfacher und schneller zu entwickeln, zu analysieren, zu optimieren und zu skalieren. Für Entwickler, Datenwissenschaftler und Forscher, die mit KI- und Analyse-Workloads arbeiten, bietet Intel das Intel® oneAPI AI Analytics Toolkit, das vertraute Python-Tools und KI-Frameworks zur Beschleunigung von KI-Pipelines, zur Maximierung der Leistung und zur Bereitstellung von Interoperabilität für eine effizientere Entwicklung bietet. Darüber hinaus werden sowohl die HPC- als auch KI-Toolkits mit oneAPI-Bibliotheken für Low-Level-Computing-Optimierungen erstellt. Durch die Entwicklung von HPC-Anwendungen mit oneAPI können Entwickler die Sperre von proprietärem Programmiercode vermeiden, um die Entdeckung zu maximieren und neue Möglichkeiten zu entdecken.

Beschleunigen Sie Ihre HPC- und KI-Workloads mit Intel

Wenn Sie die nächsten Schritte zur Implementierung von KI in HPC unternehmen, können unsere führenden Technologien, unser breites Partner-Ökosystem und tiefe Community-Verbindungen Ihnen dabei helfen, Ihre Reise zu vereinfachen und zu beschleunigen. Um mehr darüber zu erfahren, was Intel für Ihr Unternehmen bietet und um loszulegen, wenden Sie sich an Ihren Intel® Vertreter oder einen Intel® KI- oder HPC-Technologiepartner.