보도 자료: 산업 전반에 걸쳐 인공지능 애플리케이션이 급속도로 발전함에 따라 기업들은 성능, 데이터 주권, 운영 비용과 관련된 과제가 증가하고 있습니다. QNAP® Systems, Inc.는 오늘 자사 솔루션 출시를 발표했습니다. Edge AI 스토리지 서버, 포괄적인 플랫폼 edge 스토리지, 가상화, GPU 가속 및 시스템 리소스 관리를 통합하는 컴퓨팅. 이 솔루션은 기업이 AI 데이터 저장, 모델 추론, 지능형 비디오 제작 및 분석과 같은 다양한 시나리오를 지원하는 강력한 온프레미스 AI 인프라를 구축하는 동시에 일반적인 보안 위험을 제거하고 배포 라이선스 비용을 절감할 수 있도록 지원합니다. cloudQNAP Edge AI 스토리지 서버는 프라이빗 LLM(대규모 언어 모델) 및 AI 워크로드를 위한 가상 머신과 컨테이너화된 애플리케이션의 유연한 배포를 지원하므로 스마트 오피스, 제조, 소매 및 감시 환경에 이상적입니다.
QNAP 제품 관리자 CT 청은 "AI에 대한 초점이 단순한 모델 구축에서 적절한 인프라 구축으로 전환되었습니다."라고 말했습니다. "LLM, 생성적 AI 또는 가상화를 도입하는 기업에게는 대용량 데이터 세트를 처리하고 데이터 보안을 보장하며 안정적인 성능을 보장하는 플랫폼이 필수적입니다. QNAP의 Edge AI Storage Server는 단순한 스토리지 그 이상입니다. AI 추론, 가상화 및 백업 기능을 결합하여 기업이 엣지에서 안전하고 유연하게 AI를 구축할 수 있도록 지원합니다."
QNAP Edge AI 스토리지 서버의 주요 이점
- 보안 및 규정 준수 강화
AI/LLM 모델과 민감한 데이터를 로컬에서만 저장하고 실행하여 데이터 전송을 방지합니다. cloudua는 업계별 규정 준수를 지원하므로 금융, 의료, 제조와 같은 산업에 이상적입니다. - 소유 비용이 낮은 통합 플랫폼
이 솔루션은 스토리지, 가상화, GPU 가속, 데이터 보호를 단일 시스템에 결합하여 배포를 간소화하고 장기적인 유지 관리 비용을 절감합니다. - 정확한 자원 할당
GPU 및 PCIe 패스스루, 네트워크 최적화를 위한 SR-IOV, 정밀한 시스템 리소스 할당을 위한 CPU 격리(곧 제공)를 지원하여 낮은 지연 시간과 높은 안정성으로 기본에 가까운 가상 머신 성능을 보장합니다. - 가상화 및 컨테이너 배포
QNAP의 Virtualization Station 및 Container Station과 호환되므로 모델 배포, 지능형 애플리케이션 개발 또는 가상 머신 서버 백업을 위한 다양한 AI 환경을 빠르게 도입할 수 있습니다. - 오픈 소스를 활용한 LLM의 간소화된 배포
Ollama의 내부 지식 검색 도구를 통해 LLaMA, DeepSeek, Qwen 및 Gemma와 같은 오픈 소스 모델을 쉽게 배포합니다. chatAI 도입 장벽을 낮추는 봇이나 AI 도구 개발.
QNAP Edge AI 스토리지 서버에 대해 자세히 알아보거나 엔터프라이즈 배포 컨설팅을 요청하려면 다음을 방문하세요. https://www.qnap.com/go/solution/edge-ai-storage-sever.