본문 바로가기
IT

인피니밴드(InfiniBand)란 무엇인가? 개념부터 실전 사례까지 완벽 정리

by 아이럽스토리지 2026. 3. 30.
반응형

인피니밴드(InfiniBand)란? (개념 정의)

한 줄 정의

인피니밴드(InfiniBand)는 고성능 컴퓨팅과 기업용 데이터센터에서 사용되는 스위치 방식의 통신 연결 기술로, 높은 스루풋과 낮은 레이턴시, 높은 안정성과 확장성이 주요 특징입니다.

쉽게 말하면, 일반 이더넷이 "왕복 8차선 국도"라면, 인피니밴드는 "전용 고속철도 전용선"에 비유할 수 있습니다.

비유로 이해

일반 국도(이더넷)는 누구나 쓸 수 있고 어디서나 접근 가능하지만, 차가 많아지면 막힙니다.
반면 인피니밴드는 철도 전용선처럼 특정 목적지(서버 간) 전용으로 설계된 고속 통로입니다.
중간에 신호등(CPU 개입)도 없고, 다른 차량(다른 트래픽)도 없죠.

인피니밴드는 단순한 네트워크 프로토콜을 넘어, 컴퓨터 간 통신을 위한 완전한 아키텍처라고 할 수 있습니다.

 

 

 


인피니밴드는 어떻게 작동하나? (작동 원리)

핵심 기술: RDMA

인피니밴드를 이해하는 핵심 키워드는 "RDMA(Remote Direct Memory Access)"입니다.

인피니밴드는 CPU가 RDMA에 참여하지 않고도 데이터와 메시지를 전송하기 위해 스위치를 통해 노드 간에 직접 채널을 생성합니다.

우편 시스템으로 비유해보겠습니다.

  • 일반 이더넷: 편지를 보내려면 우체국(CPU)에 맡기고, 우체국이 분류하고, 배달부가 목적지까지 가져다줍니다.
    우체국이 바쁘면 지연됩니다.
  • 인피니밴드(RDMA): 발신자가 수신자 메모리 주소를 직접 알고, 중간 우체국 없이 바로 꽂아버립니다.
    CPU는 전혀 관여하지 않습니다.

구조 살펴보기: HCA와 스위치 패브릭

모든 전송은 채널 어댑터에서 시작하거나 끝이 납니다.
각 프로세서는 호스트 채널 어댑터(HCA)를 가지고 있으며, 각 주변장치에는 타겟 채널 어댑터(TCA)가 있습니다.

간단하게 단계별로 정리하면 이렇습니다.


[서버 A의 HCA] → [InfiniBand 스위치 패브릭] → [서버 B의 HCA]

        ↑                                              ↑

  PCI Express로 CPU/GPU에 연결             수신 메모리에 직접 기록


1단계: 서버 A의 애플리케이션이 데이터 전송 요청을 냅니다.
2단계: HCA(호스트 채널 어댑터)가 CPU 개입 없이 요청을 처리합니다.
3단계: 스위치 패브릭을 통해 서버 B의 HCA로 전달됩니다.
4단계: 서버 B의 메모리에 직접 기록됩니다.

 


세대별 속도 변화

인피니밴드는 SDR, DDR, QDR, FDR, EDR 순으로 발전하며, 각각 레인당 2.5Gbps, 5Gbps, 10Gbps, 14Gbps, 25Gbps의 데이터 전송 능력을 갖추고 있으며, 일반적으로 4개의 레인을 하나의 케이블로 수용하여 4배의 대역폭을 냅니다.

현재는 HDR 200G를 넘어 NDR 400G까지 출시된 상태입니다.

세대 속도(4레인 기준) 출시 시기
SDR 10Gbps 2001년대
DDR 20Gbps 2004년
QDR 40Gbps 2008년
FDR 56Gbps 2011년
EDR 100Gbps 2014년
HDR 200Gbps 2019년
NDR 400Gbps 2022년

 


인피니밴드 vs 이더넷, 뭐가 다른가? (비교 분석)

많이 받는 질문 중 하나가 "이더넷 쓰면 안 돼요?"입니다. 둘은 목적 자체가 다릅니다.

비교 항목 인피니밴드(InfiniBand) 이더넷(Ethernet)
주요 목적 HPC, AI 클러스터, 고성능 I/O 범용 네트워크
레이턴시 나노초(ns) 단위 마이크로초(μs) 단위
최대 대역폭 400Gbps(NDR) 400Gbps(이론치, 실제 다름)
CPU 개입 RDMA로 거의 없음 CPU가 관여함
호환성 같은 제조사 장비끼리만 권장 범용적, 어디서든 연결
비용 상대적으로 고가 저렴하고 대중적
주요 사용처 슈퍼컴퓨터, AI 데이터센터, HPC 사무실, 일반 서버, 인터넷

주의할 점

인피니밴드 규격은 이더넷과 달리 신호 규격이 아니므로 각 회사별로 스위치와 케이블 등의 규격이 같다는 보장은 없습니다.
즉 스위치, 케이블, 호스트 채널 어댑터를 한 제조사에서 모두 구입해야 합니다.

 

 


인피니밴드는 어디에 쓰이나? 

1. AI/딥러닝 GPU 클러스터

ChatGPT, LLaMA 같은 대형 모델을 학습시킬 때 수백, 수천 개의 GPU가 서로 엄청난 양의 데이터를 주고받아야 합니다.
이때 GPU 간 통신이 느리면 GPU가 아무리 빨라도 소용없습니다.
인피니밴드가 GPU 사이를 고속으로 연결하는 "뇌 신경망" 역할을 합니다.

NVIDIA가 인피니밴드 기술에 참여한 것은 2019년 Mellanox Technologies를 인수하면서부터입니다.
이 인수로 인해 NVIDIA는 인피니밴드 기술과 자사의 GPU 기술을 결합하여 더욱 강력한 솔루션을 제공할 수 있게 되었습니다.

2. 슈퍼컴퓨터

많은 수의 TOP500 슈퍼컴퓨터는 인피니밴드를 사용합니다.
기상 예측, 핵 시뮬레이션, 신약 개발 같은 대규모 연산을 수십만 개 CPU 코어가 동시에 처리할 때 노드 간 통신이 핵심이기 때문이에요.

3. 엔터프라이즈 데이터센터

인피니밴드는 오라클 엑사데이터 데이터베이스 머신, 클라우드 컴퓨팅과 같이 엔터프라이즈 데이터센터에서도 사용됩니다.
특히 서버와 스토리지 간의 고속 공유 네트워크로 활용되는 사례가 늘고 있어요.

4. 금융권 초저지연 시스템

주식 트레이딩 시스템처럼 수 마이크로초 단위의 응답 속도가 필요한 환경에서도 인피니밴드의 나노초 수준 레이턴시가 큰 장점이 됩니다.


주의사항

장점만 있는 기술은 없다

인피니밴드는 분명 강력하지만, 현도입할 때 꼭 짚어봐야 할 점들이 있습니다.

벤더 락인 문제가 진짜입니다. 앞서 말했듯이 스위치, 케이블, HCA 카드를 같은 제조사로 맞춰야 합니다.
NVIDIA(Mellanox) 제품을 주로 쓰는데, 한 번 도입하면 다른 제조사로 갈아타기가 쉽지 않습니다.
초기 설계 단계에서 충분히 고민이 필요합니다.

비용이 이더넷보다 상당히 높습니다. HCA 카드 하나, 스위치 하나가 이더넷 대비 몇 배 이상 비쌀 수 있습니다.

소규모 팀이나 스타트업이라면 RoCE(RDMA over Converged Ethernet)라는 대안도 고려해볼 만 합니다.
이더넷 위에서 RDMA 기능을 구현하는 기술입니다.

다만 운영 복잡도가 올라갑니다.
IP over InfiniBand(IPoIB) 기술을 활용하면 TCP/IP 프로그램을 대부분 높은 성능으로 돌릴 수 있기는 하나, 완벽히 호환되지는 않습니다.
특히 기존 모니터링 툴, 로깅 시스템과의 연동에서 예상치 못한 이슈가 생기기도 합니다.
수백억 파라미터 모델을 분산 학습하거나, 수천 노드가 긴밀하게 통신하는 HPC 환경이 아니라면 고성능 이더넷으로도 충분히 커버가 됩니다.


현업에서 인피니밴드가 빛나는 순간

  • GPU 수십 장이 올라간 AI 학습 클러스터를 구성할 때
  • MPI(Message Passing Interface) 기반의 HPC 워크로드를 돌릴 때
  • 수십 TB 규모의 스토리지와 초고속 I/O가 필요한 데이터베이스를 운영할 때

이런 환경이 아니라면 도입 비용 대비 효과를 꼼꼼히 따져보는 게 좋습니다.



반응형