Zamknij reklame

Komunikat prasowy: Wraz z szybkim rozwojem aplikacji sztucznej inteligencji w różnych branżach przedsiębiorstwa stają przed coraz większymi wyzwaniami związanymi z wydajnością, suwerennością danych i kosztami operacyjnymi. Firma QNAP® Systems, Inc. ogłosiła dziś wprowadzenie swojego rozwiązania Serwer pamięci masowej Edge AI, kompleksowe platformy dla edge obliczenia, które integrują przechowywanie, wirtualizację, akcelerację GPU i zarządzanie zasobami systemowymi. To rozwiązanie pomaga przedsiębiorstwom budować solidne lokalne infrastruktury AI obsługujące różne scenariusze, takie jak przechowywanie danych AI, wnioskowanie modeli, inteligentna produkcja wideo i analityka, jednocześnie eliminując typowe zagrożenia bezpieczeństwa i zmniejszając koszty licencjonowania wdrożeń cloudSerwer pamięci masowej QNAP Edge AI umożliwia elastyczne wdrażanie maszyn wirtualnych i aplikacji kontenerowych na potrzeby prywatnych obciążeń LLM (Large Language Model) i AI, dzięki czemu idealnie nadaje się do inteligentnych biur, zakładów produkcyjnych, handlu detalicznego i środowisk monitoringu.

„Skupienie się na AI przesunęło się z prostego budowania modeli na budowanie odpowiedniej infrastruktury” — powiedział CT Cheng, Product Manager w QNAP. „Dla przedsiębiorstw wdrażających LLM, generatywną AI lub wirtualizację kluczowe jest posiadanie platformy, która może obsługiwać duże zestawy danych, zapewniać bezpieczeństwo danych i niezawodną wydajność. Nasz Edge AI Storage Server to coś więcej niż tylko pamięć masowa. Łączy on wnioskowanie AI, wirtualizację i możliwości tworzenia kopii zapasowych, aby pomóc firmom bezpiecznie i elastycznie wdrażać AI na brzegu”.

Kluczowe zalety serwera pamięci masowej QNAP Edge AI

  • Zwiększone bezpieczeństwo i zgodność
    Przechowuje i uruchamia modele AI/LLM i poufne dane wyłącznie lokalnie, unikając przesyłania danych do cloudua wspiera zgodność z przepisami branżowymi, dzięki czemu idealnie nadaje się do takich branż jak finanse, opieka zdrowotna i produkcja.
  • Zintegrowana platforma o niższym koszcie posiadania
    Łączy w jednym systemie pamięć masową, wirtualizację, akcelerację GPU i ochronę danych, co upraszcza wdrażanie i zmniejsza koszty długoterminowej konserwacji.
  • Dokładne przydzielanie zasobów
    Obsługuje przepustowość GPU i PCIe, SR-IOV do optymalizacji sieci i izolację procesora (wkrótce) w celu precyzyjnego przydzielania zasobów systemowych, gwarantując wydajność zbliżoną do natywnej maszyny wirtualnej z niskim opóźnieniem i wysoką stabilnością.
  • Wdrażanie wirtualizacji i kontenerów
    Zgodność z aplikacjami Virtualization Station i Container Station firmy QNAP umożliwia szybką adopcję różnych środowisk AI w celu wdrażania modeli, inteligentnego opracowywania aplikacji lub tworzenia kopii zapasowych serwerów maszyn wirtualnych.
  • Uproszczone wdrażanie LLM dzięki oprogramowaniu typu open source
    Łatwe wdrażanie modeli open source, takich jak LLaMA, DeepSeek, Qwen i Gemma, za pomocą wewnętrznego narzędzia do wyszukiwania wiedzy firmy Ollama, chatbotów lub rozwoju narzędzi AI, co obniża barierę adopcji AI.

Aby dowiedzieć się więcej o serwerze pamięci masowej QNAP Edge AI lub poprosić o konsultację dotyczącą wdrożenia w przedsiębiorstwie, odwiedź stronę https://www.qnap.com/go/solution/edge-ai-storage-sever.

Powiązane artykuły

Najczęściej czytane dzisiaj

.