π‘ νμ€ μμ½: Liquid AIκ° 1.2B νλΌλ―Έν° ν¬κΈ°μ μ΄κ²½λ 'Thinking' λͺ¨λΈμ 곡κ°νλ€. ν°μμλ λμκ°λλ°, OpenAI o1μ²λΌ 'μκ°νλ κ³Όμ 'μ κ±°μ³μ μΆλ‘ λ₯λ ₯μ΄ μ§±μ§±νλ€. μμ΄μ νΈμ© λλλ‘ λ±μ!
π€ μ΄κ² λλ°?
Liquid AIμμ LFM 2.5 1.2B Thinking λͺ¨λΈμ λ΄λ¨μ΄. μ΄κ² μ λλ°μ΄λλ©΄:
- μ΄κ²½λ: νλΌλ―Έν°κ° 1.2B(12μ΅ κ°)λ°μ μ λΌ.
- μ¨λλ°μ΄μ€: λ©λͺ¨λ¦¬λ₯Ό 1GBλ μ μ¨μ μ€λ§νΈν°μ΄λ λΌμ¦λ² 리 νμ΄μμλ μ©μ© λμκ°.
- Thinking λͺ¨λΈ: κ·Έλ₯ λ΅λ³μ λ±λ κ² μλλΌ, "μκ°νλ κ³Όμ (Chain of Thought)"μ λ¨Όμ μΆλ ₯νκ³ λ΅μ μ€. (OpenAI o1 μ€νμΌ)
μμ μλ μ΄λ° μΆλ‘ λ₯λ ₯ κ°μ§λ €λ©΄ κ±°λν λ°μ΄ν°μΌν° GPUκ° νμνμμ? μ΄μ λ λ΄ λ§₯λΆμ΄λ ν°μμλ κ³ μ§λ₯ μμ΄μ νΈλ₯Ό λ릴 μ μλ€λ κ±°μΌ.
π ν΅μ¬ κΈ°λ₯
- ν¬κΈ° λλΉ λ―ΈμΉ μ±λ₯: μν(MATH 500) μ μκ° 88μ κ°κΉμ΄ λμ΄. (λΉμ·ν ν¬κΈ° λͺ¨λΈλ€μ 60μ λ)
- λ 루ν(Doom Loop) λ°©μ§: μκ°λ§ νλ€κ° λ± λ± λλ λ¬Έμ λ₯Ό ν΄κ²°νκΈ° μν΄ νΉλ³ν νλ ¨(RLVR)μ μμΌ°λ.
- μ€νλΌμΈ μ¬μ© κ°λ₯: μΈν°λ· λ겨λ λ‘컬μμ λ΄ κ°μΈμ 보 μμ νκ² μ§ν€λ©΄μ 볡μ‘ν μμ μ μν¬ μ μμ΄.
MAX5μ μκ° π―
π¨π» λ°μ΄λΈ μ½λ© λ μνΌ
μ΄ λͺ¨λΈ, llama.cppλ‘ λ°λ‘ λ릴 μ μμ΄! λ‘컬μμ λλ§μ 'Thinking μμ΄μ νΈ'λ₯Ό λμ보μ.
μ€μΉ λ° μ€ν (ν°λ―Έλ)
# 1. llama.cpp λ€μ΄λ‘λ (Homebrew)
brew install llama.cpp
# 2. λͺ¨λΈ λ€μ΄λ‘λ (HuggingFaceμμ GGUF νμΌ λ°κΈ°)
# (μ΄λ―Έμ§ λ§ν¬ μ°Έκ³ ν΄μ GGUF λ°μ ν)
# 3. μλ² μ€ν
llama-server -m lfm-2.5-1.2b-thinking.Q4_K_M.gguf --ctx-size 8192
μ΄λ κ² λμλκ³ Cursorλ VS Codeμμ λ‘컬 API(http://localhost:8080) μ°κ²°νλ©΄, 곡μ§λ‘, 무μ νμΌλ‘, μΈν°λ· μμ΄ μ½λ© λμμ£Όλ λλν λΉμλ₯Ό μ»λ κ±°μΌ. νΉν κ°λ¨ν λ‘μ§ κ²μ¦μ΄λ λ°μ΄ν° μΆμΆν λ μ΅κ³ μΌ.
πΈ μ¬μ΄λ νλ‘μ νΈ μμ΄λμ΄
"νλΌμ΄λ²μ μ λ 보μ₯ μΌκΈ° λΆμ μ±" μ΄λ? μ¬μ©μμ μΌκΈ° λ΄μ©μ μλ²λ‘ μ λ 보λ΄μ§ μκ³ , μ¬μ©μ ν°(On-device)μμ λ°λ‘ μ΄ λͺ¨λΈλ‘ λΆμν΄μ "μ€λμ κΈ°λΆ", "μ¨κ²¨μ§ κ°μ "μ 리ν¬νΈλ‘ μ¨μ£Όλ μ±. μλ² λΉμ© 0μ, 보μ κ±±μ 0μ!