Start Building and Scaling AI with NVIDIA DGX Spark and OEM Devices (TDS-AI-ESSENTIALS)

Veranstalter: TD SYNNEX gemeinsam mit NVIDIA und OEM Partnern (Lenovo, HP, etc.)

Dauer: 6 Stunden

Zielgruppe: Systemhäuser, Reseller, Presales Engineers, AI Consultants


Viele Unternehmen starten aktuell mit ersten generativen KI-Projekten. In der Praxis zeigt sich jedoch schnell eine typische Herausforderung:

Cloud-basierte Experimente lassen sich zwar schnell starten, stoßen jedoch häufig auf

Grenzen hinsichtlich:

• Kostenkontrolle

• Datenhoheit

• Integration in bestehende Systeme

• Performance und Latenz

Gleichzeitig möchten viele Unternehmen erste AI-Anwendungen lokal entwickeln und testen, bevor sie größere Plattformen aufbauen. Hier kommen Systeme wie NVIDIA DGX Spark oder OEM Varianten wie Lenovo PGX und HP ZGX Nano ins Spiel. Diese Systeme ermöglichen es Unternehmen:

• AI-Modelle lokal zu entwickeln

• erste Use Cases zu implementieren

• AI-Projekte schnell zu prototypisieren

Der entscheidende Punkt dabei:

Diese Systeme sind Teil des NVIDIA AI Ökosystems und bilden häufig den Einstiegspunkt in größere AI-Infrastrukturen.


Ein Proof-of-Concept auf einer AI Workstation kann später problemlos auf skalierbare Plattformen übertragen werden – beispielsweise auf GPU-Server oder vollständige AIFactory-Architekturen.


Ziele

Der Workshop vermittelt Partnern:

• wie AI Workstations im Markt positioniert werden

• wie sie diese Systeme technisch einsetzen

• wie erste AI-Use-Cases umgesetzt werden

• und wie sich daraus skalierbare AI-Plattformen beim Kunden entwickeln lassen

Reseller lernen damit nicht nur wie man eine AI Workstation verkauft, sondern auch wie daraus größere Infrastrukturprojekte entstehen können.


Nach dem Workshop können Teilnehmer:

• AI Workstations im Markt positionieren

• eine AI Workstation installieren

• ein Modell deployen

• einen ersten AI Use Case bauen

• das Skalierungspotenzial verstehen

Damit sind sie in der Lage, AI-Projekte bei ihren Kunden zu initiieren und auszubauen.


AI Workstations ermöglichen Systemhäusern neue Services:

AI Discovery Workshops

Analyse möglicher AI Use Cases beim Kunden

AI Proof-of-Concept Projekte

Entwicklung erster Anwendungen

AI Infrastruktur

Aufbau skalierbarer AI-Plattformen

Damit entsteht eine klare Projektpipeline von der ersten Idee bis zur produktiven AIInfrastruktur.

Details anzeigen


Inhalt


1.Marktüberblick und Positionierung

The Rise of AI Workstations

Einordnung der aktuellen AI-Marktentwicklung:

• Warum lokale AI-Infrastruktur wieder wichtiger wird

• Neue Geräteklasse: AI Workstations

• Typische Kundenanforderungen

• Sales messagingClassified as Confidential. Do not copy, publish, or redistribute without consent from the originator.

2. Hardware & Software Setup

From Zero to AI in Minutes

Live-Demo: Inbetriebnahme einer DGX Spark oder OEM-Variante

Themen:

• Architektur der Systeme

• GPU Nutzung für AI Workloads

• Software Stack

3. Erstes Modell deployen

Your First Local LLM

Deployment eines Large Language Models auf einer DGX Spark oder OEM

Variante

Beispiel:

• z.B. GPT-OSS 120b

Demonstriert wird:

• Modellbereitstellung

• GPU Nutzung

• Performance

4. Pause

5. Erster AI Use Case

From Model to Application

Wie verbinde ich ein Modell mit einer Applikation per API

Beispiel:

• Chatinterface

6. Aufbau eines einfachen AI-Agenten

Agents as the Next Generation of Applications

Demonstration eines einfachen AI-Agenten.

Beispiel:

• Agent mit n8n

Der Agent kombiniert:

• ein Sprachmodell

• externe Datenquellen

• einfache ToolsClassified as Confidential. Do not copy, publish, or redistribute without consent from the originator.

7. NVIDIA Blueprints

Accelerating AI Projects

Vorstellung von NVIDIA AI Blueprints.

Diese bieten:

• Referenzarchitekturen

• vorgefertigte AI-Anwendungen

• beschleunigte Entwicklung

Beispiele:

• AI Digital Assistant

• Document AI

• Vision AI

8. Skalierung: Von der Workstation zur AI Factory

Scaling AI Infrastructure

Ein besonders wichtiger Abschnitt für Partner. Hier wird aufgezeigt, wie ein AIProjekt typischerweise wächst:

• Überblick NVIDIA / OEM Hardware Portfolio

• Phase 1 AI Workstation

• Phase 2 AI Server Infrastruktur

• Phase 3 AI Factory Architektur


60 min - The Rise of AI Workstations

30 min - From Zero to AI in Minutes

30 min - Your First Local LLM

30 min – Pause

30 min - From Model to Application

30 min - Agents as the Next Generation of Applications

30 min - Accelerating AI Projects

30 min – Pause

30 min - Accelerating AI Projects

60 min - Scaling AI Infrastructure

30 min – FAQ & Wrap Up