인공지능의 미래를 여는
최강의 연산속도

갈 수록 인공지능 연구에 필요한 데이터 셋은 더 크고 복잡해지며 오랜 트레이닝 시간이 필요합니다. NVIDIA H100 의
포세이돈 얼티밋 라인업은 모든 스케일의 딥러닝, 머신러닝, 데이터 분석에 최고의 퍼포먼스를 제공하며 MIG(Multi Instance GPU) 를 통한 GPU 가상화로 격리, 분할된 워크로드를 가속화하여 최대 리소스 활용률을 유지합니다.

인공지능의 미래를 여는
최강의 연산속도

갈 수록 인공지능 연구에 필요한 데이터 셋은 더 크고 복잡해지며 오랜 트레이닝 시간이 필요합니다. NVIDIA H100 의 포세이돈 얼티밋 라인업은 모든 스케일의 딥러닝, 머신러닝, 데이터 분석에 최고의 퍼포먼스를 제공하며 MIG(Multi Instance GPU) 를 통한 GPU 가상화로 격리, 분할된 워크로드를 가속화하여 최대 리소스 활용률을 유지합니다.

고성능 데이터 분석, 대규모 언어모델 연구

NVIDIA H00 GPU 를 장착한
AI 선구자들을 위한 연구 워크로드 단축 서버


국내 최초 H100 4장 탑재서버
언어모델을 8 배 이상 가속하다.

트랜스포머 엔진으로 최적화된 NVIDIA H100 GPU 는 자연어처리 분야에서 AI 트레이닝 성능이 8배 이상 향상되었습니다. H100 이 국내 최초로 4장 탑재된 바로 AI 의 POSEIDON Ultimate 서버는 열과 소음을 혁신적으로 최소화하여 공간적 제약없이 연구 효율을 최대로 끌어올릴 수 있습니다.

NLP Natural Learning Processing 자연어처리란?

기계가 인간의 언어를 이해하고 해석할 수 있도록 하는 인공지능의 한 분야로, 고객 서비스, 의료 및 마케팅 등 다양한 산업 분야에서 실용적인 응용 가능성을 가지고 있습니다.

도서관보다 조용한
수냉식 Multi-GPU 서버.

포세이돈은 강력한 퍼포먼스에 대비되게 조용한 도서관보다 더 조용합니다. 환경음향 연구소 측정 결과, 포세이돈은 GPU 4장을 최대 성능으로 구동해도 최대 39dB 의 저소음을 유지하는 것을 확인하실 수 있습니다. 포세이돈은 저소음, 저발열로 처음부터 끝까지 쾌적한 AI 연구환경을 제공합니다.

새로운 세대의 H100
AI 트레이닝&추론의 혁명

이전 세대 GPU 인 A100 대비, 최대 7배 이상 빨라진 성능으로 데이터를 처리하며 NPL 모델을 트레이닝할 때 NVLink 장착 시, 최대 9배까지 높아진 성능을 볼 수 있습니다.

알츠하이머 질환 인공지능 평가 세계 대회
1위를 차지한 건국대 -건국대병원 연구팀,

건국대 연구팀은 음성·음향·신호처리분야인 자연어 처리(NLP)에 특화된 A100 GPU 를 탑재한 BARO AI 의 GPU 서버인 POSEIDON Ultimate 서버를 사용하여 미국 MIT, 뉴욕 공대 등 세계 유명 대학교들을 제치고 우승하는 성과를 이뤄냈다. 치매환자 검출 정확도 87%, 치매중증도를 예측하는 수치의 오차범위는 3.7을 획득해 타 팀 대비 높은 정확도를 보여줬다. 추후 신호처리분야 최고 권위의 ICASSP 학회에 발표할 예정이다.

POSEIDON 이 활용되는
연구 분야


컴퓨터 비전 Computer Vision

컴퓨터 비전 분야에서는 딥러닝 기술을 이용해 각 산업분야에  적용되고 있습니다. 현실에서는 주로 영상데이터 활용이 많아지고 있으며 영상 데이터를 기반으로 Object Detection, Segmentation, Pose Estimation 같은 기술에 접목 되어, 개인 PT서비스, 자율주행, 질병진단 의료장비에 관한 연구가 진행되고 있습니다. 영상데이터의 질이 높아지고 양이 많이 지면서 딥러닝 연구에서는 더 많은 연산량이 필요하고, 기존의 CNN 을 기반으로 한 무거운 모델인 VGG, ResNet 모델을 이용해 학습을 하기 위해 GPU 서버 사용이 필수가 되고 있습니다.

대형 언어모델 Large Language Model

GPT-3 와 같은 초거대 딥러닝 모델이 등장하면서 이제는 사람인지 인공지능인지 파악하기 힘든 수준으로 인공지능 모델이 발전됨을 확인했습니다. 이같은 모델을 이용해 고품질의 번역, 챗봇을 이용한 고객 응대 서비스, 인공지능 스피커의 서비스에 대한 기대도 커지고 있습니다. 한편으론 초거대 모델을 학습시키기 위해서 많은 리소스가 필요하게 되면서 모델 학습을 위한 클러스터링, 분산 학습을 위한 인프라 구축의 중요성도 높아지고 있습니다.