본문 바로가기

AI 반도체 핵심 용어 정리: H100, B100, HBM 등 한 번에 이해하기

2025. 5. 27. 댓글 개

 

왜 AI 반도체 용어를 정확히 이해해야 할까?

AI 관련 주식이나 엔비디아 실적을 분석하다 보면 꼭 등장하는 용어들이 있습니다. 바로 H100, B100, HBM, NVLink, GPU 같은 기술 용어입니다. 이 용어들을 이해하면 기술 흐름과 실적 해석 능력이 훨씬 향상됩니다.

  • AI 칩 성능과 세대 구분
  • 공급망 이슈 분석
  • 경쟁사 대비 기술력 비교

1. H100 (호퍼 아키텍처)

정의: 엔비디아가 2022년 출시한 데이터센터용 AI 가속기. Hopper 아키텍처 기반.

특징:

  • 4nm 공정, 80GB HBM3 메모리 탑재
  • 트랜스포머 기반 LLM 훈련 최적화
  • Azure, AWS, Google Cloud에서 사용

2. B100 (블랙웰 아키텍처)

정의: H100의 후속으로 2024년 발표된 AI 가속기. 2025년부터 실적 기여 기대.

특징:

  • 208B 트랜지스터, H100보다 3배 이상
  • FP8 기준 추론 성능 H100 대비 30배 향상
  • TSMC CoWoS-L 패키징 사용

3. HBM (High Bandwidth Memory)

정의: 고대역폭 메모리. GPU, AI 칩에 필수적으로 들어가는 고성능 DRAM.

버전 대역폭 특징
HBM2 256GB/s 초기 버전
HBM2e 410GB/s H100에 사용
HBM3 819GB/s 차세대 칩의 표준
HBM3e 1.2TB/s+ B100, MI300X 탑재 예정

※ HBM 공급은 SK하이닉스, 마이크론, 삼성전자가 주도하고 있음

4. NVLink / NVSwitch

정의: GPU 간 데이터를 빠르게 주고받는 고속 인터커넥트 기술.

  • 멀티 GPU 구성에서 병목 해소
  • 엔비디아 DGX 시스템 등에서 사용
  • Grace Hopper 등 슈퍼칩 구조 기반

5. GPU vs GPGPU vs TPU

구분 정의 용도 대표 기업
GPU 그래픽 처리 장치 게임, 병렬 연산 엔비디아, AMD
GPGPU 범용 GPU 연산 AI 학습, 과학 계산 엔비디아
TPU 텐서 처리 장치 딥러닝 추론 구글

6. CUDA 생태계

정의: 엔비디아가 만든 GPU 전용 병렬 컴퓨팅 플랫폼

의의: 개발자 친화적 생태계로, 엔비디아 AI 가속기의 독점적 경쟁력을 구성하는 핵심 요소

7. 요약 정리

용어 설명
H100 2022년형 AI 가속기, Hopper 기반
B100 2024년 발표된 차세대 블랙웰 칩
HBM 고속 메모리, AI 칩의 필수 부품
NVLink 칩 간 통신을 위한 인터커넥트
GPU/GPGPU AI 학습용 범용 병렬 연산 장치
CUDA 엔비디아 전용 개발 생태계

결론: 용어를 알면 투자와 분석이 달라진다

AI 슈퍼사이클을 이끄는 엔비디아의 실적과 로드맵을 이해하려면 이들 용어에 대한 이해가 필수입니다. 숫자 분석만이 아닌 기술 이해까지 갖춘 투자자로 나아가 보세요.

함께 보면 좋은 콘텐츠

#AI반도체 #H100 #B100 #HBM #GPU기초 #엔비디아기술 #AI투자 #NVIDIA분석 #반도체용어정리

블로그에 다른 글을 더 보고 싶다면?

블로그 홈으로 이동

◀ 댓글 ▶