NetApp bringt gemeinsam mit Intel den AIPod Mini auf den Markt – eine kompakte KI-Lösung für Abteilungen, die mit geringem Aufwand produktive KI-Anwendungen auf eigenen Daten realisieren möchten.
NetApp lanciert gemeinsam mit Intel den AIPod Mini, eine kompakte, vorkonfigurierte KI-Infrastruktur für Unternehmen, die lokales Inferencing mit eigenen Daten umsetzen wollen – ohne den Aufwand komplexer KI-Plattformen. Die Lösung richtet sich speziell an Fachabteilungen, die KI nutzen möchten, um Prozesse wie Dokumentenautomatisierung, personalisierte Kundeninteraktion oder vorausschauende Wartung zu optimieren – unabhängig von Cloud-Umgebungen oder zentralen Data-Science-Teams. Kern des AIPod Mini sind Intel Xeon 6 Prozessoren mit AMX-Beschleunigung, kombiniert mit NetApp All-Flash-Storage und fortschrittlichem Ontap-Datenmanagement. Durch die Integration von Kubernetes und vorvalidierten RAG-Workflows lassen sich generative KI-Anwendungen schnell und sicher aufsetzen, auch ohne tiefes ML-Know-how.
„Wir wollen KI für jede Fachabteilung auf jeder Ebene ermöglichen, ohne erhöhte Komplexität oder Kosten“, sagt Marcel Hüls, Partner Lead Switzerland bei NetApp.
NetApp positioniert das System als erschwinglich, skalierbar und sicher. Die lokal verarbeitete Architektur ermöglicht es, KI-Modelle mit proprietären Unternehmensdaten zu betreiben, ohne Datenschutzrisiken durch externe Plattformen einzugehen. Funktionen wie Zugriffskontrolle, Versionierung und Governance sind direkt integriert. Der AIPod Mini basiert auf der Open Platform for Enterprise AI (OPEA) und bietet modulare Erweiterbarkeit für individuelle KI-Anwendungsfälle in Recht, Retail, Industrie oder Service. Die Lösung wird im Sommer 2025 weltweit über Partner wie Arrow Electronics und TD Synnex verfügbar sein. (aso)