2026-03-11

NVIDIA Releases Nemotron 3 Super: A 120B Parameter Open-Source Hybrid Mamba-Attention MoE Model Delivering 5x Higher Throughput for Agentic AI

์—”๋น„๋””์•„๊ฐ€ 1200์–ต ํŒŒ๋ผ๋ฏธํ„ฐ ์˜คํ”ˆ์†Œ์Šค ์ถ”๋ก  ๋ชจ๋ธ Nemotron 3 Super๋ฅผ ๊ณต๊ฐœํ–ˆ๊ณ , ์—์ด์ „ํŠธํ˜• AI ์ฒ˜๋ฆฌ๋Ÿ‰์„ ์ตœ๋Œ€ 7๋ฐฐ๊นŒ์ง€ ๋Œ์–ด์˜ฌ๋ ธ์–ด์š”.

์ด ๋ชจ๋ธ์€ Nemotron 3 Nano(300์–ต)์™€ 2026๋…„ ์ถœ์‹œ ์˜ˆ์ • Ultra(5000์–ต) ์‚ฌ์ด ๋ผ์ธ์—…์„ ์ฑ„์šฐ๋Š” ์ค‘๊ฐ„๊ธ‰์ธ๋ฐ์š”. ์ด์ „ ์„ธ๋Œ€ ๋Œ€๋น„ ์ •ํ™•๋„๋Š” 2๋ฐฐ, ์ปจํ…์ŠคํŠธ ์œˆ๋„๋Š” 100๋งŒ ํ† ํฐ์œผ๋กœ 7๋ฐฐ ์ปค์กŒ์–ด์š”.

ํ•ต์‹ฌ์€ ํ•˜์ด๋ธŒ๋ฆฌ๋“œ Mamba-Transformer MoE ๊ตฌ์กฐ์˜ˆ์š”. ํ† ํฐ๋งˆ๋‹ค ์ผ๋ถ€ ํŒŒ๋ผ๋ฏธํ„ฐ๋งŒ ํ™œ์„ฑํ™”ํ•ด KVยทSSM ์บ์‹œ ํšจ์œจ์„ 4๋ฐฐ ๋†’์˜€๊ณ , MTP๋กœ ๋ณต์žก ์ถ”๋ก  ์ถ”๋ก  ์†๋„๋„ 3๋ฐฐ ๋นจ๋ผ์กŒ๊ฑฐ๋“ ์š”. Latent MoE๋กœ๋Š” ๊ฐ™์€ ์—ฐ์‚ฐ๋น„์šฉ์—์„œ ์ „๋ฌธ๊ฐ€ 4๊ฐœ๋ฅผ ๋Œ๋ ค, ๊ฐ™์€ ์ •ํ™•๋„๋ฅผ ๋‚ด๋ ค๋ฉด ๋ชจ๋ธ์ด 35๋ฐฐ ๋” ์ปค์ ธ์•ผ ํ•˜๋Š” ๋น„ํšจ์œจ์„ ์ค„์˜€์–ด์š”.

ํ์‡„ํ˜• ์ตœ์ƒ์œ„ ๋ชจ๋ธ๊ณผ ์˜คํ”ˆ์†Œ์Šค ๋ชจ๋ธ์˜ ๊ฒฉ์ฐจ๊ฐ€ ์ˆซ์ž๋กœ ์ค„์–ด๋“œ๋Š” ํ๋ฆ„์ด๋ผ, ๋ฉ€ํ‹ฐ ์—์ด์ „ํŠธ ์ œํ’ˆํ™” ์†๋„๊ฐ€ ๋” ๋นจ๋ผ์งˆ ๊ฐ€๋Šฅ์„ฑ์ด ์ปค ๋ณด์—ฌ์š”.

์ด ๊ธ€์ด ์–ด๋• ๋‚˜์š”?