У нас вы можете посмотреть бесплатно [AI 논문 26년 2월] Nemotron-Terminal: 자율적인 AI 터미널 에이전트를 위한 데이터 혁신 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
안녕하세요. 대규모 언어 모델(LLM)의 터미널 환경 상호작용 능력을 획기적으로 향상시키기 위해 설계된 Terminal-Task-Gen과 이를 통해 학습된 Nemotron-Terminal 모델군을 소개해 드리겠습니다. 이 논문은 고도화된 터미널 에이전트를 구축하는 데 가장 큰 걸림돌이었던 '학습 데이터의 부족'과 '비공개된 데이터 구성 전략' 문제를 해결하는 방법을 다루고 있습니다., 기존 방식은 인간의 상호작용 데이터를 수집하는 데 막대한 비용이 들거나 합성 데이터 생성 과정이 비효율적이라는 한계가 있었는데, 이를 극복하고자 개발된 데이터 엔지니어링 파이프라인이 바로 Terminal-Task-Gen입니다. mHC와 유사하게, Terminal-Task-Gen의 주요 특징과 장점은 다음과 같습니다. 체계적인 데이터 생성 전략: 기존의 수학, 코딩, 소프트웨어 공학 데이터셋을 터미널 형식으로 변환하는 '데이터셋 적응(Dataset Adaptation)'과, 특정 기술 및 시드 데이터를 바탕으로 새로운 문제를 만드는 '합성 태스크 생성(Synthetic Task Generation)' 전략을 결합했습니다. 이를 통해 터미널 에이전트에게 필요한 광범위한 기초 역량과 정교한 문제 해결 기술을 동시에 학습시킬 수 있는 대규모 데이터 세트인 'Terminal-Corpus'를 구축했습니다. 시스템 확장성 최적화: 태스크마다 매번 새로운 환경을 구축해야 했던 기존의 복잡한 방식을 개선하여, 도메인별로 미리 빌드된 9개의 고정된 Docker 이미지를 사용하는 방식을 도입했습니다. 이 혁신적인 인프라 설계를 통해 환경 검증에 드는 오버헤드를 제거하고, 수만 건 이상의 대규모 궤적 데이터를 매우 빠르고 경제적으로 생성할 수 있게 되었습니다. 검증된 성능 비약: 320억 개의 파라미터를 가진 Nemotron-Terminal-32B 모델로 실험한 결과, Terminal-Bench 2.0 벤치마크에서 기존 베이스 모델보다 성능이 약 8배 이상 향상되었습니다. 특히 이 모델은 자신보다 10배 이상 거대한 4,800억 파라미터 규모의 Qwen3-Coder 모델보다도 뛰어난 성적을 거두며, 모델의 크기보다 고품질 학습 데이터의 설계가 터미널 능력 향상에 더 핵심적임을 증명했습니다. 이 연구는 인공지능 모델이 복잡한 명령행 인터페이스(CLI) 환경에서 자율적으로 문제를 해결할 수 있도록 돕는 강력한 데이터 공학 방법론을 제시하고 있습니다. 공개된 모델과 데이터셋은 앞으로 더 똑똑하고 실용적인 개발 및 시스템 관리 AI 도구를 만드는 데 중요한 밑거름이 될 것으로 보입니다.