
Hugging Face
허깅페이스
🔍 AI 리서치모델허브오픈소스Transformers
소개
Hugging Face는 200만+ 머신러닝 모델, 50만+ 데이터셋, 100만+ AI 앱(Spaces)을 한곳에서 호스팅·공유·실행하는 오픈소스 AI 허브다. Transformers·Diffusers·PEFT 등 12개 핵심 라이브러리를 무료로 제공해 LLM·이미지·음성·비전 모델을 코드 몇 줄로 불러올 수 있다. ZeroGPU·Inference Endpoints로 GPU 인프라 없이도 모델을 배포할 수 있고, Meta·Google·Microsoft 등 5만+ 조직이 협업 플랫폼으로 사용한다. Free·PRO($9/mo)·Team($20/user/mo)·Enterprise($50/user/mo부터) 4단 구독에 GPU 시간당 과금이 결합된 구조다.
장점
- 200만+ 모델·50만+ 데이터셋의 압도적 규모로 사실상 오픈소스 AI 표준 허브
- 무료 플랜에서 공개 모델·데이터셋·Spaces 호스팅이 모두 무제한 가능
- Transformers 한 줄(`from transformers import ...`)로 SOTA 모델 즉시 호출
- ZeroGPU로 H200 GPU를 무료 큐 형태로 사용 가능 (PRO는 8배 우대)
- Inference Endpoints로 자체 GPU 없이도 시간당 $0.033부터 모델 배포
단점
- UI·문서·커뮤니티가 영어 중심이라 한국어 사용자 진입장벽이 있음
- 유료 GPU(Spaces 시간당 $0.40~$23.50)와 저장소 비용이 누적되면 빠르게 비싸짐
- 공개 저장소가 기본이라 비공개·기업 보안용은 Team/Enterprise 플랜이 사실상 필수
- 비전문가에겐 모델 선택·평가가 어려워 개발 지식이 필요함
주요 활용 사례
- 오픈소스 LLM(Llama, Mistral 등) 다운로드 후 자체 서버에서 파인튜닝
- Spaces로 Gradio·Streamlit 데모를 GPU 클라우드에 무료 배포
- Datasets 라이브러리로 학습용 공개 데이터셋 스트리밍 로드
- Inference Endpoints로 본인 모델을 관리형 API 엔드포인트로 서빙
- HuggingChat에서 최신 오픈소스 LLM을 결제 없이 시험
- 팀 단위 모델 버전 관리(Git LFS)와 SSO·Audit Log로 사내 협업
핵심 기능
Models 허브
200만+ 오픈소스 모델 검색·다운로드·버전 관리, Git 기반 협업
Datasets
50만+ ML 데이터셋 호스팅·뷰어·스트리밍 다운로드
Spaces
100만+ AI 앱을 GPU 클라우드에 몇 번의 클릭으로 배포·실행
Inference Endpoints
관리형 추론 서버를 시간당 $0.033부터 자동 스케일로 배포
ZeroGPU
Spaces용 H200 GPU 70GB 슬롯을 무료 큐로 제공 (PRO 우대)
오픈소스 라이브러리
Transformers·Diffusers·PEFT·TRL 등 12개 코어 라이브러리
HuggingChat
오픈소스 LLM 기반 무료 대화형 챗봇 인터페이스
공식 사이트 2026-05-09 검증
💰 요금제 (2026-05-09 기준)
Free
$0/mo
- · HF Hub·공개 모델/데이터셋/Spaces 무제한 호스팅
- · CPU Basic Spaces (2 vCPU, 16GB) 무료 실행
- · Git 기반 협업·커뮤니티·Dataset 뷰어
PRO
$9/mo
- · 비공개 저장소 10배·공개 저장소 2배 용량
- · Inference 크레딧 20배·ZeroGPU 쿼터 8배 + 우선 큐
- · Spaces Dev Mode·ZeroGPU Spaces 호스팅·블로그 발행
Team
$20/user/month
- · SSO(SAML/OIDC)·Storage Regions로 데이터 위치 통제
- · Audit Log·Resource Group·중앙 토큰 관리
- · 조직 전 멤버에 ZeroGPU·Inference Providers PRO 혜택
Enterprise
$50/user/month부터
- · Team의 모든 기능 + SCIM 자동 사용자 관리
- · 최고 저장소·대역폭·API 한도, 고급 보안 정책
- · 연간 계약·법무·전담 지원
Spaces GPU (시간당)
$0.03/hr~$23.50/hr
- · CPU Upgrade $0.03/hr, T4 small $0.40/hr, A100 80GB $2.50/hr
- · 8x A100 $20.00/hr, 8x L40S $23.50/hr
- · ZeroGPU(H200 70GB)는 Free·PRO 모두 무료 큐
Inference Endpoints
$0.033/hr부터
- · AWS Intel Sapphire Rapids CPU $0.03/hr부터
- · T4·L4·L40S·A10G·A100·H100·H200·B200 GPU 옵션
- · TPU·Neuron 가속기 옵션 포함, 자동 스케일
🇰🇷 한국 사용자 안내
- 한국어 UI:
- ❌ 한국어 UI 미지원
- 결제:
- 확인 필요
- 환불:
- 공식 페이지에 명시된 한국어 환불 정책 없음 (월 단위 구독, 다음 결제 주기 전 취소 가능)
UI·문서·커뮤니티가 영어 전용이며 결제 통화는 USD다. 한국어 사용자도 무료 플랜으로 모델 다운로드·Spaces 사용은 자유로우나, 공식 한국어 지원은 없다. 한국어 모델·데이터셋도 커뮤니티가 업로드한 것이 다수 존재한다.
❓ 자주 묻는 질문
무료 플랜만으로 어디까지 사용할 수 있나요?
공개 모델·데이터셋·Spaces 호스팅이 무제한이며 CPU Basic(2 vCPU, 16GB) Spaces를 무료로 실행할 수 있습니다. ZeroGPU(H200 70GB) 무료 큐도 사용 가능해 GPU 인프라 없이도 데모 배포가 가능합니다.
PRO($9/mo)로 업그레이드하면 무엇이 달라지나요?
비공개 저장소 용량 10배·Inference 크레딧 20배·ZeroGPU 쿼터 8배와 우선 큐, Spaces Dev Mode, 개인 블로그 발행, 비공개 데이터셋 뷰어가 추가됩니다.
한국에서도 결제·사용이 가능한가요?
글로벌 USD 신용카드 결제로 한국에서도 가입·구독이 가능합니다. 다만 UI와 결제 영수증이 모두 영어이며 원화 결제·세금계산서는 공식 지원되지 않습니다.
ZeroGPU와 Spaces 유료 GPU의 차이는 무엇인가요?
ZeroGPU는 H200 70GB를 공유 큐 형태로 무료 제공하지만 동시 실행 슬롯과 시간 제한이 있습니다. 유료 GPU(T4 $0.40/hr~A100 $2.50/hr)는 전용 인스턴스로 24/7 실행이 필요할 때 사용합니다.
Spaces와 Inference Endpoints는 어떻게 다른가요?
Spaces는 Gradio·Streamlit 데모와 커뮤니티 공개용으로 클릭 한 번에 배포하는 형태이고, Inference Endpoints는 자동 스케일·전용 인스턴스·VPC 옵션이 있는 프로덕션용 추론 서비스입니다.
기업에서 SSO와 보안 통제가 필요하면 어느 플랜인가요?
Team($20/user/mo)부터 SAML/OIDC SSO, Storage Regions, Audit Logs, Resource Groups를 제공합니다. SCIM 자동 사용자 관리·연간 계약·전담 지원이 필요하면 Enterprise($50/user/mo부터)가 필요합니다.
2026-05-09 검증 · 변경 가능