툴팁 제목
툴팁 내용

LLM 모델 순위

필터 옵션

모델 효율성 순위 TOP 10

효율성 순위 지표 안내

효율성 순위는 출력 토큰 / 입력 토큰 비율을 기준으로 산출됩니다. 이 비율이 낮을수록 모델이 더 효율적으로 작동한다고 볼 수 있습니다.

이 지표는 특히 문서 편집, 코드 리팩토링, 데이터 분석 등의 작업에서 중요한 의미를 가집니다. 효율성이 높은 모델은 사용자가 제공한 정보에서 필요한 부분만 정확하게 추출하여 간결하게 응답하는 경향이 있어, 불필요한 토큰 소비를 줄이고 비용 효율적인 AI 활용이 가능합니다. 그러나 낮은 효율성 비율이 반드시 더 나은 성능을 의미하지는 않습니다. 일부 복잡한 작업에서는 더 많은 출력 토큰이 필요할 수 있으며, 상세한 설명이나 광범위한 정보 제공이 필요한 경우에는 높은 효율성 비율이 오히려 바람직할 수 있습니다. 따라서 이 지표는 작업의 특성과 목적에 맞게 해석해야 합니다.

순위 모델명 입력 토큰 출력 토큰 효율성 비율 ?출력 토큰 / 입력 토큰 비율
(낮을수록 효율적)
1 google/gemini-2.5-pro-exp-03-25 26,905,544,598 277,547,516 0.0103
2 qwen/qwen-turbo-2024-11-01 2,701,632,665 35,188,482 0.013
3 meta-llama/llama-guard-3-8b 673,446,008 10,319,941 0.0153
4 qwen/qwen-2-vl-72b-instruct 105,077,538 1,969,681 0.0187
5 qwen/qwen-2-vl-7b-instruct 299,047,206 5,641,528 0.0189
6 qwen/qwen-vl-plus 377,306,472 7,212,164 0.0191
7 neversleep/llama-3-lumimaid-8b 1,575,625,658 31,730,513 0.0201
8 google/gemini-2.5-pro-preview-03-25 81,571,918,584 1,911,943,481 0.0234
9 anthropic/claude-3-7-sonnet-20250219 338,646,846,732 8,270,423,123 0.0244
10 nothingiisreal/mn-celeste-12b 52,157,830 1,292,826 0.0248

디버그 정보

Array
(
    [0] => Array
        (
            [rank] => 1
            [permaslug] => google/gemini-2.5-pro-exp-03-25
            [author] => google
            [prompt_tokens] => 26905544598
            [completion_tokens] => 277547516
            [reasoning_tokens] => 408103669
            [efficiency_ratio] => 0.0103
        )

    [1] => Array
        (
            [rank] => 2
            [permaslug] => qwen/qwen-turbo-2024-11-01
            [author] => qwen
            [prompt_tokens] => 2701632665
            [completion_tokens] => 35188482
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.013
        )

    [2] => Array
        (
            [rank] => 3
            [permaslug] => meta-llama/llama-guard-3-8b
            [author] => meta-llama
            [prompt_tokens] => 673446008
            [completion_tokens] => 10319941
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0153
        )

    [3] => Array
        (
            [rank] => 4
            [permaslug] => qwen/qwen-2-vl-72b-instruct
            [author] => qwen
            [prompt_tokens] => 105077538
            [completion_tokens] => 1969681
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0187
        )

    [4] => Array
        (
            [rank] => 5
            [permaslug] => qwen/qwen-2-vl-7b-instruct
            [author] => qwen
            [prompt_tokens] => 299047206
            [completion_tokens] => 5641528
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0189
        )

    [5] => Array
        (
            [rank] => 6
            [permaslug] => qwen/qwen-vl-plus
            [author] => qwen
            [prompt_tokens] => 377306472
            [completion_tokens] => 7212164
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0191
        )

    [6] => Array
        (
            [rank] => 7
            [permaslug] => neversleep/llama-3-lumimaid-8b
            [author] => neversleep
            [prompt_tokens] => 1575625658
            [completion_tokens] => 31730513
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0201
        )

    [7] => Array
        (
            [rank] => 8
            [permaslug] => google/gemini-2.5-pro-preview-03-25
            [author] => google
            [prompt_tokens] => 81571918584
            [completion_tokens] => 1911943481
            [reasoning_tokens] => 3633681341
            [efficiency_ratio] => 0.0234
        )

    [8] => Array
        (
            [rank] => 9
            [permaslug] => anthropic/claude-3-7-sonnet-20250219
            [author] => anthropic
            [prompt_tokens] => 338646846732
            [completion_tokens] => 8270423123
            [reasoning_tokens] => 839238665
            [efficiency_ratio] => 0.0244
        )

    [9] => Array
        (
            [rank] => 10
            [permaslug] => nothingiisreal/mn-celeste-12b
            [author] => nothingiisreal
            [prompt_tokens] => 52157830
            [completion_tokens] => 1292826
            [reasoning_tokens] => 0
            [efficiency_ratio] => 0.0248
        )

)

실행된 SQL 쿼리

SELECT
                ds.model_permaslug AS permaslug,
                ds.author, -- author 추가
                SUM(ds.total_prompt_tokens) AS prompt_tokens,
                SUM(ds.total_completion_tokens) AS completion_tokens,
                SUM(ds.total_native_tokens_reasoning) AS reasoning_tokens,
                -- 입력 토큰 대비 출력 토큰 비율 계산
                SUM(ds.total_completion_tokens) / SUM(ds.total_prompt_tokens) AS efficiency_ratio
            FROM release_llm_daily_stats ds
            WHERE ds.date >= DATE_SUB('2025-04-28', INTERVAL 7 DAY) AND ds.date <= '2025-04-28' and variant<>'free'
              -- 입력 토큰이 0보다 큰 경우만 필터링 (0으로 나누기 방지 및 유효한 비율 계산)
              AND ds.total_prompt_tokens > 0
            GROUP BY ds.model_permaslug, ds.author -- 그룹 기준에 author 추가
            -- 효율성 비율(낮을수록 좋음) 오름차순 정렬
            ORDER BY efficiency_ratio ASC
            LIMIT ? (LIMIT: 10)