OpenAI가 13만1,000 GPU 학습망에서 기존 상식을 뒤집는 네트워크 프로토콜 MRC를 실전 배치했어요.
MRC는 2026년 5월 5일 OCP로 공개됐고, OpenAI·AMD·Broadcom·Intel·Microsoft·NVIDIA가 함께 만들었어요. 100,000+ GPU 구간에서 병목인 tail latency를 줄이려고, 트래픽을 단일 경로 대신 8개 독립 평면으로 분산해요.
더 파격적인 건 데이터센터 패브릭의 L3 제어 평면을 사실상 제거한 점이에요. OSPF/BGP/IS-IS/FIB 같은 동적 포워딩 상태 없이도 800Gb/s NIC 기반으로 운영되고, 장애 시 마이크로초 단위로 우회해 학습 중단을 줄였어요.
AI 인프라가 커질수록 정답은 더 복잡한 라우팅이 아니라, 단순한 스위치와 엔드포인트 지능일 수 있다는 신호예요.