Komunikat prasowy: Wraz z szybkim rozwojem aplikacji sztucznej inteligencji w różnych branżach przedsiębiorstwa stają przed coraz większymi wyzwaniami związanymi z wydajnością, suwerennością danych i kosztami operacyjnymi. Firma QNAP® Systems, Inc. ogłosiła dziś wprowadzenie swojego rozwiązania Serwer pamięci masowej Edge AI, kompleksowe platformy dla edge obliczenia, które integrują przechowywanie, wirtualizację, akcelerację GPU i zarządzanie zasobami systemowymi. To rozwiązanie pomaga przedsiębiorstwom budować solidne lokalne infrastruktury AI obsługujące różne scenariusze, takie jak przechowywanie danych AI, wnioskowanie modeli, inteligentna produkcja wideo i analityka, jednocześnie eliminując typowe zagrożenia bezpieczeństwa i zmniejszając koszty licencjonowania wdrożeń cloudSerwer pamięci masowej QNAP Edge AI umożliwia elastyczne wdrażanie maszyn wirtualnych i aplikacji kontenerowych na potrzeby prywatnych obciążeń LLM (Large Language Model) i AI, dzięki czemu idealnie nadaje się do inteligentnych biur, zakładów produkcyjnych, handlu detalicznego i środowisk monitoringu.
„Skupienie się na AI przesunęło się z prostego budowania modeli na budowanie odpowiedniej infrastruktury” — powiedział CT Cheng, Product Manager w QNAP. „Dla przedsiębiorstw wdrażających LLM, generatywną AI lub wirtualizację kluczowe jest posiadanie platformy, która może obsługiwać duże zestawy danych, zapewniać bezpieczeństwo danych i niezawodną wydajność. Nasz Edge AI Storage Server to coś więcej niż tylko pamięć masowa. Łączy on wnioskowanie AI, wirtualizację i możliwości tworzenia kopii zapasowych, aby pomóc firmom bezpiecznie i elastycznie wdrażać AI na brzegu”.
Kluczowe zalety serwera pamięci masowej QNAP Edge AI
- Zwiększone bezpieczeństwo i zgodność
Przechowuje i uruchamia modele AI/LLM i poufne dane wyłącznie lokalnie, unikając przesyłania danych do cloudua wspiera zgodność z przepisami branżowymi, dzięki czemu idealnie nadaje się do takich branż jak finanse, opieka zdrowotna i produkcja. - Zintegrowana platforma o niższym koszcie posiadania
Łączy w jednym systemie pamięć masową, wirtualizację, akcelerację GPU i ochronę danych, co upraszcza wdrażanie i zmniejsza koszty długoterminowej konserwacji. - Dokładne przydzielanie zasobów
Obsługuje przepustowość GPU i PCIe, SR-IOV do optymalizacji sieci i izolację procesora (wkrótce) w celu precyzyjnego przydzielania zasobów systemowych, gwarantując wydajność zbliżoną do natywnej maszyny wirtualnej z niskim opóźnieniem i wysoką stabilnością. - Wdrażanie wirtualizacji i kontenerów
Zgodność z aplikacjami Virtualization Station i Container Station firmy QNAP umożliwia szybką adopcję różnych środowisk AI w celu wdrażania modeli, inteligentnego opracowywania aplikacji lub tworzenia kopii zapasowych serwerów maszyn wirtualnych. - Uproszczone wdrażanie LLM dzięki oprogramowaniu typu open source
Łatwe wdrażanie modeli open source, takich jak LLaMA, DeepSeek, Qwen i Gemma, za pomocą wewnętrznego narzędzia do wyszukiwania wiedzy firmy Ollama, chatbotów lub rozwoju narzędzi AI, co obniża barierę adopcji AI.
Aby dowiedzieć się więcej o serwerze pamięci masowej QNAP Edge AI lub poprosić o konsultację dotyczącą wdrożenia w przedsiębiorstwie, odwiedź stronę https://www.qnap.com/go/solution/edge-ai-storage-sever.