나무모에 미러 (일반/어두운 화면)
최근 수정 시각 : 2024-03-07 17:59:56

HSA

hUMA에서 넘어옴
파일:hsaLogo1.png
HSA 재단 홈페이지

Heterogeneous System Architecture
이기종 시스템 아키텍처

1. 개요2. HSA 재단3. 역사4. HSA의 개념
4.1. hUMA4.2. hQ
5. HSA의 목표와 한계6. HSA 지원 프로그램

1. 개요

파일:wEvYSAn.png
HSA(Heterogeneous System Architecture)란 이기종 시스템 아키텍처의 줄임말이다.

동일한 성격의 코어를 모은 프로세서(멀티코어 CPU나 GPU)를 가리켜 호모지니어스(Homogeneous)라고 하고, 이와는 반대로 전혀 다른 역할을 하는 코어를 하나로 통합한 프로세서를 가리켜 헤테로지니어스(Heterogeneous)라고 부른다. 여기서 호모지니어스 통합이 멀티코어 프로세서이고, 헤테로지니어스 통합이 HSA이다.

HSA는 헤테로지니어스인 CPU와 GPU를 하나의 연산체로 간주하는 추상 계층을 생성해 GPU를 연산 보조용으로 사용하고, CPU와 GPU 사이에 데이터가 오갈 필요를 없앤다는 것이다. 즉 HSA란 CPUGPU를 하나의 칩으로 통합시키고 둘 사이에 긴밀한 연계를 추구하는 것이다.

이는 GPU가 발전하면서 이를 새로운 연산 장치로 활용하려는 시도가 있었고, 이로부터 도출된 문제점과 그 해결책을 찾아가면서 만들어진 개념이다. 간단하게, GPGPU를 지금보다 더 활용하기 쉽도록 하는 아키텍처 설계법으로 보면 된다.

AMD/APU는 외장 그래픽카드를 사용해도 iGPU를 HSA로 사용해 CPU의 연산 속도에서 비약적인 향상을 가져온다.

2. HSA 재단



2012년, AMD에서 이기종 시스템 아키텍처 연구를 하기 위해서 설립한 비영리 재단이다.
ARM 진영을 비롯하여, 모바일 칩셋을 생산하는 회사들이 대거 가입해 있다(삼성전자도 여기에 속해 있다). 이처럼 HSA 기술은 ARM 진영에서 환영 받는다.
인텔, NVIDIA, IBM을 비롯하여 독자 플렛폼으로 GPGPU 분야에 진출중인 회사들은 가입하지 않았다. 더구나 이 세 업체가 차지하는 반도체 칩셋 비중이 전체의 3분의 1이다.

게다가 인텔에서는 HSA 재단에 가입하지도 않았지만 브로드웰 부터 HSA 지원이 되는 구조로 만들었다. OpenCL 2.0에 HSA가 표준 명령어로 포함되었기 때문에 HSA가 되는 구조이고, OpenCL 2.0을 지원하면 HSA 사용이 되는 실정이라 AMD 입장에서는 오히려 독이 될 수도 있는 상황.[1] NVIDIA도 아직까진 떡밥 수준에 불과하지만, 그래픽 카드에 ARM CPU를 내장하는 계획이 실현되면 이를 위해 HSA 지원을 할 가능성이 있다.[2] 다만 설령 저 시나리오가 실제로 일어난다고 해도 CUDA를 확장하거나 OpenCL 2.0(또는 그 이후 버전)를 통해 지원하는 등, HSA 재단과는 따로 놀 가능성도 있기 때문에 속단은 금물.

자세한 내용은 HSA 재단(영문) 참고.

3. 역사

개념 자체는 예전부터[3] 제시되었지만, HSA라는 이름을 가지게 된 역사는 짧다. HSA라는 이름이 나오게 된 때는 2000년대 중반 경이고, HSA 재단이 설립된 땐 불과 2012년경이다(사실 HSA는 기술명이고, AMD에서 밀던 브랜드는 Fusion이다. 하지만 Future is Fusion 마케팅을 밀던 걸 너 고소 먹고 브랜드를 바꿀 뻔하다 보니 HSA란 이름이 전면으로 나오게 된 것.[4][5] 그리고 HSA를 지원하는 AMD의 하드웨어는 2013년 11월에 출시된 PS4의 커스텀 APU와 2014년 1월에 출시된 카베리부터 해당된다.
또한 OpenCL 2.0에 HSA가 표준 명령어로 포함되었기 때문에 OpenCL 2.0을 지원하는 소프트웨어에서도 HSA를 어느 정도 활용할 수 있다. 하지만 가야 하는 길이 아직 멀다.

4. HSA의 개념

파일:0HVZdVp.jpg

4.1. hUMA

파일:external/gigglehd.com/9c1a4504c4c54eff1bedd1c37964d3e9.png
CPUGPU 개발사 AMD가 설명하는 hUMA(heterogeneous Uniform Memory Access)

서로 다른 프로세서(CPUGPU)의 메모리 영역을 통일하여 메모리 영역을 공유한다는 개념이다. 한마디로 GPU가 CPU와 같은 수준으로 다루어지며, 동일한 메모리에 액세스할 수 있다는 것이다.

기존 방식은 CPU와 GPU가 서로 다른 메모리 영역으로 나누어져 있다.[6] 이렇게 따로 떨어진 메모리 사이에서는 데이터 처리시 동기화와 주소 변환이 필요하다. 이를 CPU와 GPU가 공유하는 추상화된 메모리 계층을 생성해 동일한 메모리 어드레스를 사용하여 해결한다는 것이다.

이 과정에서의 CPU와 GPU의 양방향 메모리의 일관성을 하드웨어로 유지한다. 하드웨어가 양방향으로 캐시를 스누프하고 일관성을 자동으로 확보한다. 어느 프로세서가 캐시의 데이터를 갱신한 경우 다른 프로세서를 탐지할 수 있어 메모리 일관성의 에러가 생기지 않도록 하는 것이다.[7]

기존의 데이터 연결방식은 "CPU - 주 메모리 - GPU 메모리 - GPU" 였는데 주 메모리와 GPU 메모리 영역을 통합시켜 "CPU - 공유 메모리 - GPU"로 연결한다는 것이다.
직렬(연속적인) 작업 담당하는 CPU와 병렬화 작업를 담당하는 GPU를 효율적으로 묶는 게 hUMA의 역할이다. 이를 통해서 GPU가 실행하는 범용 프로그램을 지금보다 더 간단하게 쓸 수 있도록 하는 것이다.
게다가 그 동안 만들어진 프로그램은 GPU 메모리로 데이터를 보내도록 만들어졌다.[12] 당연히 기존 프로그램과는 호환이 전혀 되지 않는다. 이러한 HSA의 장점을 살리기 위해서는 기존 방식과는 다른 방식으로 데이터를 전송하도록 프로그램을 새로 짜야 한다. 즉, 기존 프로그램 사용자에게는 전혀 쓸모 없는 기술인 셈이다.
파일:f51f7010059eded555935e1bc1d1698b.png
2020년대부터 CPU의 GPU 메모리 접근이 Resizable BAR 기술을 통해 기존 256MB에서 전체 접근이 가능해지면서 하드웨어적 제한이 완화되었으며, 이를 지원하는 게임등 SW에서 성능이 향상되고 있다.

4.2. hQ

파일:external/www.4gamer.net/004.jpg
파일:external/www.4gamer.net/007.jpg
위가 기존 방식, 아래가 hQ(Heterogeneous Queuing)

hQ란 간단히 CPU와 GPU 사이에 있는 높은 장벽을 줄이는 방식의 구조를 말한다.

현재의 GPU처리는 OS에 따라서만 제어 될 수 있다. 그래서 GPU 접근은 애플리케이션 → OS API → 드라이버 → GPU의 방식으로 접근하는데, GPU가 작업을 실행할 때마다 이 과정을 거쳐서 GPU를 효율적으로 사용할 수가 없을 뿐더러, 이 과정에서 상당한 지연이 발생한다.[13]

그래서 사용자가 직접 GPU에 프로세스나 작업을 할당할 수 있도록 한다는 것이 hQ의 개념이고, 이를 위해 사용자가 GPU 작업을 실행하기 위한 구조를 하드웨어 단계에서 제공하는 것이 hQ이다.

5. HSA의 목표와 한계

파일:external/images.kbench.com:8080/k128925p1n3.jpg 파일:external/images.kbench.com:8080/k128925p1n7.jpg
현재의 GPU 활용 방식
OS의 간섭이 많고 단계가 복잡하여 활용하기가 힘겹다.
HSA의 GPU 활용방식
애플리케이션이 GPU를 직접 활용 할수 있도록 하여 효율을 높인다.
HSA의 궁극적인 목적은 병렬 연산 프로그래밍의 확대이다. 이를 위해 GPGPU 프로그래밍의 난이도를 낮추고 하드웨어의 제약에 얽매이지 않게 동작할 수 있는 병렬 컴퓨팅 환경을 만드는 것이다.[16] 이 목적은 AMD가 2000년 중반에 내세우던 해테로지니어스 코어라는 목표를 전 플렛폼으로 확대한 모습이기도 하다.

궁극적인 단계에서는사용자 입장에서 GPU는 CPU의 보조 연산 코어정도로 인식할 정도로 GPGPU 프로그래밍의 난이도를 낮추는것이 목표이다.

그러나 목적만큼 그 한계 역시 뚜렷하다. GPGPU 분야에서 선두주자인 NVIDIACUDA를 끌어들이지 못했다는 점[17], 그리고 CPU쪽에서도 인텔을 끌어들이지 못해서 당장 대부분의 프로그래머들이 HSA에 대해서 영 좋지 못한 시선이다. GPGPU 난이도가 아무리 낮아진다고해도 이를 이용할 하드웨어가 없다면 무용지물이다. 그런데 AMD는 카베리부터 비로소 HSA를 지원할 정도로, 늦은 속도로 HSA를 지원하는 하드웨어를 발표한다. 심지어 카베리조차 내부 버스 구조가 도떼기 시장처럼 어지러워서, GPU는 CPU 캐시를 들여다 볼 수 있지만 CPU는 GPU 캐시를 들여다 볼 수 없는 등의 문제가 있고, 정작 이런 문제가 깔끔하게 해결된 레이븐 릿지에 와서는 담당자들이 모두 경쟁사로 옮겨가 경쟁 플랫폼을 만들고 있는 등 동력 상실로 홍보 문서에 HSA란 언급조자 다 빼버리고 관망 중이다(...)# 그 중 한 사람이 NVIDIA로 가서 만든 게 NVLINK라고. NVLINK는 풀스펙 세팅 기준 1세대 100GB/s (하프 듀플렉스), 2세대 양방향 300GB/s (풀 듀플렉스)의 어마어마한 대역폭으로 APU와 유사한 효과를 누리는 플랫폼이다. 다만 CPU와의 통신에 써먹으려면 PowerPC와 조합해야만 한다. 이론상 x86 CPU와의 조합도 가능하긴 하지만 CPU쪽에서 지원을 안 한다.[18] 그 CPU 만드는 회사들경쟁 플랫폼 판매자라는 사실을 생각하면 지극히 당연한 일이지만, 반대로 PowerPC는 해당 문서의 비판적인 서술들을 보면 알겠지만 순수 CPU 성능으론 경쟁이 어려운 상황이라, 슈퍼컴퓨터에서 성능 경쟁을 위해 GPU, 보조 프로세서를 적극적으로 활용하는 등 NVLINK를 지원할만한 동기가 충분한 상황이다.

때문에 19년 현재 HSA를 가장 잘 써먹을 수 있는 플랫폼은 HSA를 처음 추진한 AMD가 아니라, 역설적이게도 기술적으로는 HSA가 아닌(...) PowerPC 플랫폼 기반의 CUDA이다. 인텔은 GPU성능이 낮고, AMD는 조용히 업계 대세에 묻어가는 분위기이고(더구나 이쪽 APU도 인텔보단 고성능일 뿐, 여전히 GPU 성능이 낮은 저가형과 모바일 제품들만 내놓고 있다), 하이엔드급 이상 GPU를 APU처럼 써먹을 수 있는 플랫폼은 지포스출신의 HPC GPU들을 NVLINK를 지원하는 CPU와 연결한 것이 유일하기 때문(...)

게다가 인텔IBM도 독자 플랫폼으로 GPGPU 시장에 진출 중이라는 점은 장기적으로 HSA 프로젝트의 발목을 잡을 것으로 보인다.

단, 인텔도 HSA 지원에 대한 투자는 꾸준히 하는데, 인텔에서 GPGPU용으로 미는 독자 플랫폼인 제온 파이는 슈퍼컴퓨터 같이 HPC용이지 그나마 포기했다.#, 데스크탑이나 노트북에 쓸 수 없기 때문이다(애초에 제온 파이 0세대, 흑역사 라라비를 출시 못한 이유의 하나가 양쪽 다 간보다가 이게 아닌가벼하고 방향전환하다가 시기를 놓쳐서...) 브로드웰부터는 공유 메모리와 OpenCL 2.0도 지원하는 등 HSA 지원이 되는 하드웨어 구조를 가지고 있다. 캐시 구조를 생각하면, 나아가 AMD보다도 앞서는 모습을 보인다.[19]

AMD 역시 마냥 손 놓고 있는 건 아니라서, 라이젠 5천 시리즈 + 라데온 6천 시리즈부터는 CPU와 GPU 상호간의 무제한 메모리 엑세스를 통한 성능 향상이 가능하다고 한다. AMD의 RX 6000 GPU, 스마트 메모리 액세스를 통해 Ryzen 5000 CPU로 성능 향상
그리고 AMD Instinct 제품군으로 고성능 APU도 출시할 모양이다.Exascale 슈퍼컴퓨터에 들어가는 AMD Instinct MI300 APU

AppleApple Silicon/M 시리즈를 통해 PC 환경에서 hUMA를 구현하였다.

6. HSA 지원 프로그램


[1] 단, OpenCL 2.0을 통한 HSA 사용은, 정식 지원이보다는 꼼수에 가깝고, 제약도 심하다고 한다.[2] 다름 아닌 ARM이 HSA 재단의 설립 멤버이기 때문이다.[3] AMD 기준으로, ATI 인수 당시부터 계획하고 있었다.[4] 링크한 파코즈 게시판 검색 결과의 경우, 09년도~12년도 초까지 'Fusion APU'라는 표현이 많이 사용되었는데, 12년도 중반부터 쏙 사라졌다. 반면에 같은 게시판에서 HSA 기사는 12년도 말부터 나온다.[5] 여튼 13년 1월에 합의하긴 했다.[6] NUMA라고 부르는데, '서로 다른 메모리 영역으로 나뉜 거 = NUMA'가 아니다. 하나의 메모리 영역으로 되어 있어도 어떤 CPU core가 어떤 주소를 접근하느냐에 따라 latency / bandwidth에서 성능차이가 나는 경우에도 NUMA가 된다. 따라서 시스템 DDR 메모리와 그래픽 카드의 외장 GDDR 메모리의 영역이 하나로 합쳐지라도 DDR과 GDDR 메모리가 물리적으로 하나의 메모리로 통합되지 않는 이상, CPU에서 DDR 메모리로 접근하는 것과 그래픽 카드의 GDDR 메모리를 PCIe 버스를 통해서 접근하는 것과는 latency / bandwidth에서 성능차이가 날 수밖에 없기 때문에 여전히 NUMA로 남는다.[7] 간단하게 말해서, 엔비디아CUDA와 비슷한 방향으로 간다고 생각하면 된다.[8] 즉, 시금 사용되는 방식은 주 메모리와 GPU 메모리 사이의 두 데이터의 일치 여부를 누군가가 확인해 주어야 한다. 게다가 최적화를 위해서는 GPU 메모리가 어느 정도까지 데이터를 한 번에 처리할 수 있는지 여부를 직접 프로그래머가 확인하고 여기에 맞추어 처리 할 데이터양을 조절해야 한다. 그런데 HSA에는 그러한 작업은 불필요하다.[9] 마치 RAID처럼 뱅크 그룹을 만들어 비약적인 속도 향상을 가져왔다. 하지만 GDDR이 일반 DRAM을 대체할 수 있다는 것은 아니다. 어디까지나 그래픽 연산에 한정된 성능이다. 그런데 HBM은 APU나 서버용 CPU에 넣는다는 소문이 들리는 것으로 보아 정말로 일반적인 DRAM을 대체할 지도 모른다. 물론 현재와 동일한 수준의 퍼포먼스를 발휘하려면 기술의 진보와 함께 최적화 작업이 동반되어야 할 것이다.[10] 물론 플레이스테이션 4처럼 일반 DRAM이 아닌 GDDR5를 주 메모리로 사용한다면 간단하게 해결되겠지만 게임 콘솔이 아닌 Windows라는 범용 운영체제를 사용하는 일반 PC에 DRAM을 GDDR로 바꾸는 것은 현재로서는 매우 어렵다.[11] 현실적인 한계로, 아직은 내장 그래픽에만 HSA가 적용되지만, HSA는 외장 GPU의 그래픽 메모리와의 통합도 추진하기에 엄밀히는 틀린 말이다.[12] 주 메모리의 속도가 GPU 처리속도를 못따라오다보니 미리 처리할 데이터를 GPU 메모리에 보내준다. 이를 '프리로딩'이라고 하는데, 자세한 내용에 대해서는 로딩항목의 2.2번 '심리스 방식' 을 참조하자.[13] 물론 OS가 수행하는 모든 작업은 CPU가 담당한다. 즉, GPU를 활용하기 위해서 GPU로 접근할 때마다 CPU가 엄청난 작업을 처리하는 셈이다.[14] 간단하게 말해서, 애플리케이션이 접근해서는 안되는 위치의 메모리 주소에 접근하면 시스템이 다운되어 버린다. 이를 방지 하기 위해서 OS가 모든 하드웨어와 메모리 접근을 관리한다. 그럼에도 애플리케이션이 접근하면 OS는 블루스크린 같은 커널 패닉을 일으킨다. 즉, OS를 배제한 접근 방식은 잠재적으로 커널 불안정을 초래할 가능성을 내포하고 있다.[15] 그래도 ARM에서도 참여하니 속단은 금물.[16] 예를 들어, AMD GPU/APU로 동작하는 병렬 컴퓨팅 프로그램을 만들었다면 이것이 'ARM + POWER VR'로도 프로그램 수정없이 돌아갈 수 있다는 것이다.[17] CUDA는 대표적인 폐쇄 플랫폼이다. NVIDIA GPU로만 돌아가는 녀석이니...[18] 대신 GPU간 통신에 써먹는 건 지장 없기 때문에 GeForce 20부터는 SLI를 대체하는 식으로 써먹고 있다.[19] AMD에는 카리조까지도 CPU와 GPU가 공유하는 캐시 메모리가 없다. 그래서 해당 기능이 필요한 AMD 후원 HSA 성능 연구는 HSA와 L3 캐시를 모두 가진 가상의 APU를 시뮬레이션해서 쓰기도 한다(연구 당시에 인텔에서는 HSA를 지원하지 않았다.).

분류