포스트

CanIRun.ai - 내 컴퓨터에서 실행 가능한 AI 모델을 확인하는 도구

목차

  1. 개요
  2. 배경
  3. 핵심 내용
  4. 의미와 시사점
  5. 결론
  6. Reference

개요

CanIRun.ai는 사용자의 컴퓨터에서 어떤 AI 모델을 로컬로 실행할 수 있는지 확인해주는 웹 기반 도구이다. 개발자 midudev가 만든 무료 애플리케이션으로, 별도의 설치나 회원가입 없이 브라우저만으로 하드웨어 사양을 분석하고 실행 가능한 모델 목록을 제공한다. 로컬 LLM 실행에 관심이 있는 사용자라면 자신의 하드웨어가 원하는 모델을 감당할 수 있는지 사전에 파악할 수 있어 매우 실용적이다.

배경

최근 오픈소스 AI 모델의 발전으로 Llama, Qwen, Gemma, Mistral, DeepSeek 등 다양한 모델을 로컬 환경에서 직접 실행하려는 수요가 급증하고 있다. 그러나 각 모델마다 요구하는 하드웨어 사양이 다르고, GPU 메모리, RAM, CPU 성능 등 여러 요소를 복합적으로 고려해야 하기 때문에 초보 사용자가 적합한 모델을 선택하기란 쉽지 않다. CanIRun.ai는 이러한 문제를 해결하기 위해 브라우저에서 직접 하드웨어를 감지하고, 각 모델의 실행 가능 여부를 자동으로 판별해준다.

핵심 내용

주요 기능

CanIRun.ai는 웹 브라우저에 접속하는 것만으로 사용자의 하드웨어 사양을 자동 감지한다. 별도의 프로그램 설치나 회원가입이 필요 없으며, 접속 즉시 분석 결과를 확인할 수 있다. 감지된 하드웨어 정보를 바탕으로 다양한 AI 모델의 실행 가능 여부를 실시간으로 분석하여 등급별로 분류해준다.

하드웨어 감지 방식

CanIRun.ai는 브라우저의 WebGPU API를 활용하여 GPU, CPU, RAM 사양을 직접 감지한다. WebGPU는 최신 브라우저에서 지원하는 그래픽 및 컴퓨팅 API로, 별도의 드라이버 설치 없이도 하드웨어 정보에 접근할 수 있다. 이를 통해 사용자의 시스템 성능을 추정하고, 각 모델의 요구 사양과 비교하여 실행 가능성을 판단한다.

성능 등급 시스템

CanIRun.ai는 각 모델에 대해 S부터 F까지의 성능 등급을 부여한다. 등급별 의미는 다음과 같다.

등급설명
S최고 성능으로 원활하게 실행 가능
A매우 좋은 성능으로 실행 가능
B양호한 성능으로 실행 가능
C보통 수준으로 실행 가능하나 속도 저하 가능
D실행은 가능하나 성능이 제한적
F실행 불가 또는 매우 느림

이 등급 시스템 덕분에 사용자는 각 모델이 자신의 하드웨어에서 어느 정도 성능으로 동작할지 직관적으로 파악할 수 있다.

지원 모델

CanIRun.ai는 1B부터 120B 이상의 파라미터 범위까지 다양한 모델을 지원한다. 주요 지원 모델은 다음과 같다.

모델특징
Qwen다양한 크기의 모델 제공, Qwen 3.5 9B 등 높은 추천을 받는 모델 포함
LlamaMeta의 오픈소스 대규모 언어 모델 시리즈
GemmaGoogle의 경량 오픈소스 모델
Mistral높은 효율성을 가진 프랑스 AI 기업의 모델
DeepSeek코딩 및 추론에 강점을 가진 모델

모델별 성능 데이터는 llama.cpp, Ollama, LM Studio 등 주요 로컬 추론 도구에서 수집된 벤치마크 정보를 기반으로 제공된다.

뷰 모드와 상세 정보

CanIRun.ai는 그리드 뷰와 리스트 뷰 두 가지 모드를 제공하여 사용자 선호에 맞게 모델 목록을 탐색할 수 있다. 각 모델에 대해 메모리 요구량, 토큰 처리 속도, 컨텍스트 길이 등의 상세 정보도 함께 확인할 수 있다. 이를 통해 단순히 실행 가능 여부뿐만 아니라, 실제 사용 시 어느 정도의 응답 속도와 컨텍스트 처리 능력을 기대할 수 있는지도 파악할 수 있다.

의미와 시사점

CanIRun.ai는 로컬 AI 모델 실행의 진입 장벽을 크게 낮추는 도구이다. 기존에는 모델별 VRAM 요구량, 양자화 옵션, RAM 사양 등을 직접 조사하고 비교해야 했지만, 이 도구를 통해 한 번의 접속으로 모든 정보를 확인할 수 있다.

다만 커뮤니티에서는 몇 가지 한계도 지적되고 있다. 환각(hallucination) 문제나 도구 호출(tool calling) 실패 같은 모델 자체의 한계는 이 도구에서 반영되지 않는다. 또한 MoE(Mixture of Experts) 아키텍처 모델의 경우, 전체 파라미터 수와 실제 활성 파라미터 수가 다르기 때문에 성능 추정 방식의 개선이 필요하다는 의견도 있다.

결론

CanIRun.ai는 로컬에서 AI 모델을 실행하고자 하는 사용자에게 매우 유용한 도구이다. 브라우저 접속만으로 하드웨어 분석과 모델 호환성 확인을 동시에 수행할 수 있으며, 직관적인 등급 시스템으로 빠른 의사결정을 돕는다. 설치나 가입 없이 무료로 사용할 수 있다는 점도 큰 장점이다. 로컬 LLM 실행을 고려하고 있다면, 모델을 다운로드하기 전에 CanIRun.ai에서 먼저 호환성을 확인해보는 것을 추천한다.

Reference