Start Building and Scaling AI with NVIDIA DGX Spark and OEM Devices
(TDS-AI-ESSENTIALS)
Veranstalter: TD SYNNEX gemeinsam mit NVIDIA und OEM Partnern (Lenovo, HP, etc.)
Dauer: 6 Stunden
Zielgruppe: Systemhäuser, Reseller, Presales Engineers, AI Consultants
Viele Unternehmen starten aktuell mit ersten generativen KI-Projekten. In der Praxis zeigt sich jedoch schnell eine typische Herausforderung:
Cloud-basierte Experimente lassen sich zwar schnell starten, stoßen jedoch häufig auf
Grenzen hinsichtlich:
• Kostenkontrolle
• Datenhoheit
• Integration in bestehende Systeme
• Performance und Latenz
Gleichzeitig möchten viele Unternehmen erste AI-Anwendungen lokal entwickeln und testen, bevor sie größere Plattformen aufbauen. Hier kommen Systeme wie NVIDIA DGX Spark oder OEM Varianten wie Lenovo PGX und HP ZGX Nano ins Spiel. Diese Systeme ermöglichen es Unternehmen:
• AI-Modelle lokal zu entwickeln
• erste Use Cases zu implementieren
• AI-Projekte schnell zu prototypisieren
Der entscheidende Punkt dabei:
Diese Systeme sind Teil des NVIDIA AI Ökosystems und bilden häufig den Einstiegspunkt in größere AI-Infrastrukturen.
Ein Proof-of-Concept auf einer AI Workstation kann später problemlos auf skalierbare Plattformen übertragen werden – beispielsweise auf GPU-Server oder vollständige AIFactory-Architekturen.
Ziele
Der Workshop vermittelt Partnern:
• wie AI Workstations im Markt positioniert werden
• wie sie diese Systeme technisch einsetzen
• wie erste AI-Use-Cases umgesetzt werden
• und wie sich daraus skalierbare AI-Plattformen beim Kunden entwickeln lassen
Reseller lernen damit nicht nur wie man eine AI Workstation verkauft, sondern auch wie daraus größere Infrastrukturprojekte entstehen können.
Nach dem Workshop können Teilnehmer:
• AI Workstations im Markt positionieren
• eine AI Workstation installieren
• ein Modell deployen
• einen ersten AI Use Case bauen
• das Skalierungspotenzial verstehen
Damit sind sie in der Lage, AI-Projekte bei ihren Kunden zu initiieren und auszubauen.
AI Workstations ermöglichen Systemhäusern neue Services:
• AI Discovery Workshops
Analyse möglicher AI Use Cases beim Kunden
• AI Proof-of-Concept Projekte
Entwicklung erster Anwendungen
• AI Infrastruktur
Aufbau skalierbarer AI-Plattformen
Damit entsteht eine klare Projektpipeline von der ersten Idee bis zur produktiven AIInfrastruktur.
Inhalt
1.Marktüberblick und Positionierung
The Rise of AI Workstations
Einordnung der aktuellen AI-Marktentwicklung:
• Warum lokale AI-Infrastruktur wieder wichtiger wird
• Neue Geräteklasse: AI Workstations
• Typische Kundenanforderungen
• Sales messagingClassified as Confidential. Do not copy, publish, or redistribute without consent from the originator.
2. Hardware & Software Setup
From Zero to AI in Minutes
Live-Demo: Inbetriebnahme einer DGX Spark oder OEM-Variante
Themen:
• Architektur der Systeme
• GPU Nutzung für AI Workloads
• Software Stack
3. Erstes Modell deployen
Your First Local LLM
Deployment eines Large Language Models auf einer DGX Spark oder OEM
Variante
Beispiel:
• z.B. GPT-OSS 120b
Demonstriert wird:
• Modellbereitstellung
• GPU Nutzung
• Performance
4. Pause
5. Erster AI Use Case
From Model to Application
Wie verbinde ich ein Modell mit einer Applikation per API
Beispiel:
• Chatinterface
6. Aufbau eines einfachen AI-Agenten
Agents as the Next Generation of Applications
Demonstration eines einfachen AI-Agenten.
Beispiel:
• Agent mit n8n
Der Agent kombiniert:
• ein Sprachmodell
• externe Datenquellen
• einfache ToolsClassified as Confidential. Do not copy, publish, or redistribute without consent from the originator.
7. NVIDIA Blueprints
Accelerating AI Projects
Vorstellung von NVIDIA AI Blueprints.
Diese bieten:
• Referenzarchitekturen
• vorgefertigte AI-Anwendungen
• beschleunigte Entwicklung
Beispiele:
• AI Digital Assistant
• Document AI
• Vision AI
8. Skalierung: Von der Workstation zur AI Factory
Scaling AI Infrastructure
Ein besonders wichtiger Abschnitt für Partner. Hier wird aufgezeigt, wie ein AIProjekt typischerweise wächst:
• Überblick NVIDIA / OEM Hardware Portfolio
• Phase 1 AI Workstation
• Phase 2 AI Server Infrastruktur
• Phase 3 AI Factory Architektur
60 min - The Rise of AI Workstations
30 min - From Zero to AI in Minutes
30 min - Your First Local LLM
30 min – Pause
30 min - From Model to Application
30 min - Agents as the Next Generation of Applications
30 min - Accelerating AI Projects
30 min – Pause
30 min - Accelerating AI Projects
60 min - Scaling AI Infrastructure
30 min – FAQ & Wrap Up

