본문 바로가기
오픈소스 AI 탐구일지

Ubuntu에 LLaMA 설치 완전 가이드: 설정부터 최적화까지

by Keyroamer 2025. 6. 29.
반응형

Ubuntu에 LLaMA 설치 가이드를 나타내는 일러스트 썸네일 이미지
Ubuntu 로고, 터미널 아이콘, 다운로드 폴더, 노트북 속 라마 캐릭터와 함께 'Complete Guide to Installing LLaMA on Ubuntu'라는 문구가 있는 따뜻한 색감의 2D 정보형 썸네일

Ubuntu에서 LLaMA 모델을 설치하려면 어떤 단계가 필요할까요?

LLaMA는 메타(Meta)에서 공개한 고성능 자연어 처리(NLP) 언어 모델로, 오픈소스로 제공되며 커스터마이징과 자가 호스팅이 가능한 점에서 많은 관심을 받고 있습니다. 이 글에서는 Ubuntu 시스템에 LLaMA 모델을 직접 설치하고 실행하는 방법을 설명합니다. GPU 환경 구성, 모델 다운로드, 변환, 실행 팁, 실제 활용 예시까지 실용적인 정보만을 간결하게 담았습니다.


Ubuntu에 필요한 최소 시스템 사양

Ubuntu에서 LLaMA 모델을 효율적으로 실행하려면 다음과 같은 시스템 사양을 갖추는 것이 좋습니다. 특히 GPU 사용 환경이 권장됩니다.

항목 최소 요구 사항
운영체제 Ubuntu 20.04 이상
GPU NVIDIA RTX 3090 이상
VRAM 최소 24GB
CUDA 버전 11.7 이상
RAM 최소 32GB
저장공간 모델당 최소 10GB 이상의 여유 공간

CPU만으로도 실행은 가능하지만, 연산량이 많기 때문에 속도 저하가 심각할 수 있습니다.


Python 및 필수 라이브러리 설치하기

먼저 Python 환경을 준비해야 합니다. Python 3.10 이상을 권장하며, 가상환경을 사용하면 라이브러리 관리가 용이합니다.

sudo apt update
sudo apt install python3.10 python3.10-venv python3.10-dev -y
python3.10 -m venv llama_env
source llama_env/bin/activate
pip install --upgrade pip
pip install torch torchvision torchaudio

PyTorch는 CUDA 지원 여부에 맞춰 설치 명령어를 공식 사이트에서 확인하는 것이 좋습니다.


LLaMA 다운로드 및 GitHub 레포지토리 클론하기

Meta의 LLaMA 모델은 일반적으로 Hugging Face를 통해 배포되며, 특히 LLaMA 2나 3의 경우 접근 권한이 필요합니다. 권한을 받은 후 다음과 같이 진행할 수 있습니다.

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

llama.cpp는 빠른 로컬 추론을 위해 설계된 C++ 기반의 경량 구현체이며, make 명령어로 빌드할 수 있습니다.


모델 변환 및 실행 준비

다운로드한 모델은 .pth 또는 .safetensors 형식인 경우가 많습니다. llama.cpp와 함께 사용하려면 ggml 형식으로 변환해야 합니다.

python3 convert.py --outtype f16 --outfile llama-model.ggml <path_to_model_file>

변환이 완료되면 아래와 같이 실행할 수 있습니다.

./main -m ./llama-model.ggml -p "Ubuntu에 LLaMA 설치 방법은?"

사용자 프롬프트 및 실시간 대화 테스트

Ubuntu 환경에서 LLaMA를 테스트하려면 사용자 정의 프롬프트를 입력해 응답을 확인해보세요.

./main -m ./llama-model.ggml -p "인공지능의 미래는 어떻게 될까?"

GPU 가속이 적용되면 응답 속도가 현저히 빨라집니다.


성능 최적화를 위한 팁

더 나은 성능을 위해 다음과 같은 설정 팁을 고려해보세요.

항목 최적화 팁
쓰레드 수 `-t` 옵션으로 CPU 코어 수 지정 (예: `-t 8`)
배치 크기 `--batch_size`로 처리 속도 향상
프롬프트 길이 토큰 길이를 효율적으로 조정
모델 양자화 f16 → int4/int8 변환으로 메모리 절감

--interactive 옵션을 사용하면 대화형 셸 환경으로도 실행할 수 있습니다.


LLaMA 설치 후 가능한 실제 활용 예시

설치가 완료되면 다양한 인공지능 활용이 가능합니다.

  1. 이메일 자동 작성기 개발
  2. 질문 응답형 챗봇 구축
  3. 논문 자동 요약 도구

사용 목적에 따라 7B, 13B, 30B 모델 중에서 선택하면 성능과 용량을 조절할 수 있습니다.


요약 및 마무리

Ubuntu에 LLaMA를 직접 설치하면 데이터 프라이버시와 모델 제어권을 확보할 수 있는 강력한 장점이 있습니다. 단, GPU 호환성, CUDA 버전, 모델 포맷에 대한 이해가 필요하므로 공식 문서와 GitHub 가이드를 참고해야 합니다. 일단 설치가 완료되면 생성형 AI 모델로서 다양한 분야에 활용할 수 있는 강력한 도구가 됩니다.

 

반응형