테라곤

제품 개요

분산 메모리 구조의
계산용 HPC

클루닉스의 HPC 테라곤은 각각 메모리를 가진 여러 대의 컴퓨터가 계산을 나누어 처리하는 구조의 고성능 컴퓨터입니다. CPU마다 개별 메인메모리를 가지고 있어 메모리 접근 충돌이 일어나지 않으므로, 저비용으로 CPU와 메모리만 늘리면 계산속도가 획기적으로 빨라집니다.

연구 분야에 맞추어 설계되는 맞춤형
고성능 HPC

구조해석, 유체해석, 대기과학, 기상해양, 자원탐사, 재료공학, 인공지능(Deep Learning), 빅데이터, 반도체 등 다양한 연구 과학 분야의 응용 특성에 최적화된 CPU, Co-Processor(GPGPU, Xeon Phi), 메모리, 네트워크, 파일시스템, 컴파일러, 라이브러리로 시스템을 설계, 구현합니다.

도입 효과

빠르고 안정적 성능

응용 분야에 최적화된 H/W, 클러스터구성(스케줄방식, 파일시스템), 개발 환경(컴파일러, 라이브러리) 제공으로 일반적 HPC 에 비해 30~100% 향상된 성능을 제공합니다.

신속하고, 성공적인 HPC 도입

20년간 다양한 과학, 공학, 수치 계산 분야에 최적화된 HPC 기술 연구와 플랫폼 공급으로 해당 연구 분야에서 요구되는 개발 환경을 신속하게 제공하고, 복잡한 HPC 시스템 도입 전반의 과정을 전문적으로 안내해 드립니다.

손쉬운 사용으로 효과적 HPC 이용

웹 기반 HPC 접근 및 스케줄러 이용 환경 제공으로, 전문적인 슈퍼컴 이용 기술 없이 손 쉽게 HPC 시스템을 이용할 수 있습니다.

편리한 HPC 시스템 관리

웹 기반 HPC 시스템 운영 관리 기능 제공으로, 전문 엔지니어 없이도 복잡한 HPC 시스템을 운영 관리할 수 있습니다.

테라곤 구축도

테라곤의 구성

하드웨어

  • Cluster Nodes: 계산용, 관리용, 파일서비스용
  • Network Switch 등

기술지원

  • 시스템 설계 및 설치
  • 관리운영 및 유지보수
  • 관리자 및 사용자 교육
  • 공동 개발 및 연구

소프트웨어

운영체제 및 파일 시스템

  • 운영체제 : RedHat Enterprise Linux, CentOS
  • 파일시스템 : NFS, pNFS, GlusterFS, LustreFS

개발용 소프트웨어

  • 컴파일러: GNU Compiler, Intel Compiler, PGI Compiler
  • 계산용 라이브러리: Intel MKL, IMSL, ATLAS, LAPACK, Scalapack 등
  • 병렬 프로그램 개발툴: LAM, MPICH1, MPICH2, MVIPICH1, MVAPICJ2, Open MPI 등

클러스터 운영관리소프트웨어

  • 클러스터 운영, 관리 : GridCenter

특징 및 장점

최적의 아키텍처 선정, 설계

사용자 프로그램 통해 최적의 구성 요소와 아키텍처로 선정하여 설계할 수 있습니다.

우수한 성능 및 확장성

다른 서버 노드의 메인 메모리에 직접 접근할 수 없도록 되어 있기 때문에 접근 충돌을 회피할 수 있어 확장성이 우수합니다.

시스템 가동률 극대화

자체 결함 감지 및 통보 기능을 제공하여 최적의 사용 환경을 제공함으로써 시스템 가동률을 극대화할 수 있습니다.

분석 서비스

  • 자동화된 시스템 관리 : 변경 자동감지, 설정 자동저장, 시스템장애 자동보고
  • 편리한 원격 관리 : 원격 Power Off, OS 및 SW 원격설치, 웹으로 원격감시
  • 시스템 일괄 관리 : 노드그룹별 일괄 관리, 명령 동시 수행, 파일 동시 전송
  • 웹기반 인터페이스 : 보안된 웹세션 제공

도입 분야

기계,자동차,제조,조선,전자 등 (CAE, EDA 공학 시뮬레이션)

  • 삼성중공업
  • 한국타이어
  • 현대로템
  • LS전선
  • 국방과학연구소
  • 전북자동차부품산업혁신센터
  • 포항산업과학연구원
  • 강원대 기계메카트로닉스공학과
  • 건국대 기계공학과
  • 건국대 항공우주공학과
  • 경희대 기계공학과
  • 고려대 신소재공학과
  • 금오공대 기계공학과
  • 동아대 기계공학과
  • 서강대 전자공학과
  • 서울대 기계항공공학부
  • 홍익대 기계공학과
  • KAIST 건설및환경공학과 등

전산

  • 한국과학기술연구원(KISTI) 슈퍼컴퓨팅센터
  • 한국전자통신연구원(ETRI)
  • 강남대 컴퓨터공학과
  • 건국대 컴퓨터시스템학부
  • 경희대 컴퓨터공학과
  • 동덕여대 컴퓨터공학과
  • 명지대 컴퓨터소프트웨어학과
  • 서울대 컴퓨터공학부
  • 서울대 컴퓨터연구소
  • 서울교대 컴퓨터교육과
  • 순천향대 정보기술공학부
  • 이화여대 컴퓨터공학과
  • 충남대 컴퓨터공학과
  • 한국산업기술대 컴퓨터공학부 등

대기/기상/해양 분석

  • 강원지방기상청
  • 고려대 수학과
  • 기상청 기상연구소
  • 서울대 지구환경과학과
  • 조선대 지구과학교육학부 등

자원 탐사

  • 지질자원연구원(해저탐사,석유자원)
  • 서울대 에너지시스템공학부
  • 서울대 에너지자원신기술연구소
  • 한성대 정보공학부
  • 한양대 지구환경시스템공학과 등

물리/ 화학 /수리 등

  • 기초과학연구원
  • 삼성생명과학연구소
  • 건국대 수학과
  • 고려대 수학과
  • 동국대 수학과
  • 아주대 수학과
  • 포항공대 물리학과 등

인공지능(Deep Learning)

  • 서울대
  • KAIST 뇌공학과 등

적용 사례

도입배경

복잡한 형상에서 다상유동에 대한 수치해석, 분자역학 해석, 입자 베이스 유동해석 등 본 연구단에서 수행 중인 다양한 대규모 수치해석을 위한 대용량 병렬 계산을 수행할 수 있는 연산 클러스터 시스템. 고성능 병렬 연산 환경 구축을 통해 효율적인 대규모 계산환경 구축

도입제품

  • Teragon
  • Luster file system

사용 S/W

  • AMBER
  • CHARMM
  • NAMD
  • VASP
  • Openform
  • Tensorflow

편리한 HPC 시스템 관리

  • Open Source (Openform, Tensorflow, Keras) 시스템 최적화
  • Lustre file System을 적용하여 Data I/O 속도 개선
  • 모든 작업을 웹 기반으로 통합하여 사용자의 신규 시스템 적응에 대한 부담을 최소화
  • 개인 PC와 통합 해석 시스템간의 작업 연계 기능을 제공함으로 해석 전체 작업 효율을 최대화
  • 최적화된 스케줄러 적용을 통한 작업효율 극대화

BMT 자료

Clunix 사의 High Performance Computing 제품인 Teragon™ 과 HPC 관리 솔루션인 GridCenter™ 기반 환경에서 측정된, CAE 응용 S/W의 해석 계산 성능에 대한 참고자료입니다.

ANSYS Fluent

Intel Xeon Haswell 96-processor 기반 HPC 플랫폼에서
ANSYS Fluent v16.2 의 해석 처리 성능 측정

96core-4node 병렬 계산 시, 1core 대비 37배의 성능 개선을 확인. Scalability Line을 보았을 때, 96core 이상의 병렬 계산도 가능 (96core 이상 병렬 계산에서는 Infiniband FDR-56Gb 이상 권장)

ANSYS CFX

Intel Xeon Haswell 96-processor 기반 HPC 플랫폼에서
ANSYS CFX v16.2 의 해석 처리 성능 측정

96core-4node 병렬 계산 시, 1core 대비 32배의 성능 개선을 확인. Scalability Line을 보았을 때, 96core 이상의 병렬 계산도 가능

ANSYS Mechanical

Intel Xeon Haswell 96-processor 기반 HPC 플랫폼에서
ANSYS Mechanical v16.2 의 해석 처리 성능 측정

96core-4node 병렬 계산 시, 1core 대비 6.6배의 Computing 계산 성능 확인. ( I/O 영역까지 포함된 Elapsed Time 을 기준으로 할 경우, 48core(2node) 에서 1node 보다 낮은 성능 확인)

StarCCM+

Intel Xeon Haswell 96-processor 기반 HPC 플랫폼에서
STAR-CCM+ v10.06의 해석 처리 성능 측정

96core-4node 병렬 계산 시, 1core 대비 52배의 성능 개선을 확인. 병렬 계산의 Scalability 효과가 매우 높은 Solver 로 10 Node 이상 병렬 계산 시에는 Infiniband FDR(56Gb) 이상 권장

ABAQUS

Intel Xeon Haswell 96-processor 기반 HPC 플랫폼에서
ABAQUS v6.13-1 의 해석 처리 성능 측정

96core-4node 병렬 계산 시, 1core 대비 20배의 성능 개선을 확인. PPN=24 방식으로 Core 할당 시, 72core-3node 병렬 계산 시간이 96core-4node 보다 더 빠르게 측정 (대규모 병렬 계산 시 지연 발생)

PLUS