MoonNote

반응형
     

 

CPU, GPU, TPU, FPGA (출처: Medium)

CPU(Central Processing Unit)

 

 중앙 처리 장치라고도 하며 CPU(Central Processing Unit, Central/main Processor)는 컴퓨터 시스템을 통제하고 프로그램의 연산을 실행·처리하는 가장 핵심적인 컴퓨터의 제어 장치, 혹은 그 기능을 내장한 칩입니다. 외부에서 정보를 입력받고, 기억하고, 컴퓨터 프로그램의 명령어를 해석하여 연산하고, 외부로 출력하는 역할을 합니다. 따라서 중앙 처리 장치(CPU)는 컴퓨터 부품과 정보를 교환하면서 컴퓨터 시스템 전체를 제어하는 장치로, 모든 컴퓨터의 작동과정이 중앙 처리 장치(CPU)의 제어를 받기 때문에 컴퓨터의 두뇌에 해당한다고 할 수 있습니다. 실제의 CPU 칩엔 실행 부분뿐만 아니라 캐시 등의 부가 장치가 통합되어 구성되어 있습니다.

 

 CPU의 장점은 프로그래밍이 매우 쉽고 모든 프로그래밍 프레임워크를 지원한다는 것입니다. C/C++, Scalar, Java, Python 또는 기타 새로운 프로그래밍 언어로 프로그래밍할 수 있습니다. 또한, 단일 스레드 성능에 있어 순차 작업에 이상적인 Processing Unit입니다.

 

GPU(Graphic Processing Unit)

 

 그래픽 처리 장치 또는 GPU(Graphic Processing Unit)는 컴퓨터 시스템에서, 그래픽 연산을 빠르게 처리하여 결과값을 모니터에 출력하는 연산 장치이다. VPU(Visual Processing Unit)라고도 합니다. GPU는 임베디드 시스템, 휴대 전화, 개인용 컴퓨터, 워크스테이션, 비디오 게임 콘솔, 인공지능, 무인 자동차, 클라우드 컴퓨팅 등에 사용되며 컴퓨터 그래픽과 영상 처리에 매우 효과적으로 사용되며, 큰 덩어리의 영상 데이터가 병행 처리되는 알고리즘에 CPU보다 능률적입니다. 

 

 CPU에 비해 처리 장치가 간단하지만 훨씬 더 많은 수의 코어를 호스트할 수 있으므로 병렬로 데이터를 처리해야하는 어플리케이션에 이상적이라고 할 수 있습니다. 하지만 GPU는 CUDA와 OpenCL과 같은 언어로 프로그래밍되어 CPU에 비해 제한된 유연성을 제공합니다.

 

TPU(Tensor Processing Unit)

 

 텐서 프로세싱 유닛(Tensor Processing Unit) 또는 TPU는 Google이 개발한 맞춤형 가속기입니다. 기계 학습 워크로드, 특히 딥 러닝 작업을 처리하는 데 특화되어 있습니다. TPU는 텐서 운영에 탁월하며 특히 구글의 클라우드 인프라 내에서 인공지능과 머신러닝을 가속화하는 데 중요한 역할을 합니다.  TPU는 밀도가 높은 벡터와 행렬 계산을 수행하는 데 매우 빠르며 텐서플로우를 기반으로 매우 빠른 프로그램을 실행하는 데 특화되어 있습니다. 이들은 행렬 계산이 지배하는 애플리케이션과 주 훈련 루프 내에서 사용자 지정 텐서플로우 연산이 없는 애플리케이션 및 모델에 매우 적합합니다. 즉, CPU 및 GPU에 비해 유연성이 낮고 TensorFlow 기반 모델의 경우에만 사용하는 것이 합리적입니다.

 

 

 

 

 

 

 

 

 

 

※ 이 글이 도움이 되었다면 "👆🏻구독"과 "🤍공감" 버튼을 클릭해주세요. 클릭 한번이 글 쓰는데 큰 힘이 됩니다.

공유하기

facebook twitter kakaoTalk kakaostory naver band