Interbotix / WidowX

Trossen Robotics의 연구용 로봇 암 시리즈 - VLA 및 Embodied AI 연구의 표준 하드웨어

Interbotix / WidowX

Home > Hardware > Arms > WidowX


Overview

Interbotix는 Trossen Robotics에서 개발한 연구용 로봇 암 브랜드로, ROBOTIS Dynamixel 서보 모터를 기반으로 한 고정밀 매니퓰레이터 시리즈를 제공한다. WidowX와 ViperX 시리즈는 VLA(Vision-Language-Action) 모델 학습, 원격조작 데이터 수집, 그리고 Embodied AI 연구에 널리 사용되는 로봇 암 플랫폼이다. ALOHA, BridgeData V2, Open X-Embodiment 등 주요 로봇 학습 프로젝트에서 채택되었다.

항목내용출처
제조사Trossen Robotics공식 사이트
설립2005년, Matt TrossenTracxn
본사Downers Grove, Illinois, USACBInsights
모터ROBOTIS Dynamixel X-Series공식 문서
가격대$2,000 - $6,500 (2024년 기준, 변동 가능)제품 페이지
주요 용도연구, 교육, ML/AI 데이터 수집-

회사 소개: Trossen Robotics

Trossen Robotics는 2005년 Matt Trossen이 설립한 로봇 전문 기업으로, 20년 이상 연구실 및 교육기관에 로봇 하드웨어를 공급해왔다1. 연구용 매니퓰레이터, 무인 지상 차량(UGV), ML/AI 통합 연구 키트 등을 제조 및 유통하며, 특히 ROBOTIS Dynamixel 서보를 활용한 Interbotix 브랜드로 유명하다.

ALOHA 프로젝트와 Open X-Embodiment 데이터셋에 하드웨어를 공급하면서 Embodied AI 연구 커뮤니티에서 핵심적인 위치를 차지하게 되었다.


제품 라인업

X-Series 암 (기본 라인업)

아래 스펙은 공식 Interbotix 문서를 기반으로 하며, 가격은 2024년 기준 대략적인 참고 가격이다.

모델DoF리치페이로드서보 구성가격 (참고)특징
PincherX-1004335mm50gXL430~$500입문용, 컴팩트
PincherX-1504450mm50gXL430~$600입문용, 확장 리치
ReactorX-1505450mm100gXM430/XL430~$1,200중급, 손목 회전
ReactorX-2005550mm150gXM430/XL430~$1,500중급, 확장 리치
WidowX-2005550mm200gXM430-W350, XL430-W250~$2,500연구용 표준
WidowX-2505650mm250gXM430-W350, XL430-W250~$3,000연구용 확장
WidowX-250 6DoF6650mm250gXM430-W350, XL430-W250~$3,550ALOHA Leader 암
ViperX-2505650mm450gXM540-W270, XM430-W350~$4,500고페이로드
ViperX-3005750mm750gXM540-W270, XM430-W350~$5,500고성능
ViperX-300 6DoF6750mm750gXM540-W270, XM430-W350~$6,130ALOHA Follower 암

참고: 가격은 변동될 수 있으며, 최신 가격은 공식 사이트에서 확인 권장.

상세 스펙 비교

아래 스펙은 공식 문서(WidowX-200, WidowX-250, ViperX-300 6DoF)에서 발췌하였다.

항목WidowX-200WidowX-250ViperX-300 6DoF
자유도5 DoF5 DoF6 DoF
최대 리치550mm650mm750mm
전체 스팬1100mm1300mm1500mm
페이로드200g250g750g
반복 정밀도1mm1mm1mm
정확도5-8mm5-8mm5-8mm
그리퍼 개폐30-74mm30-74mm42-116mm
서보 수789
손목 회전지원지원지원

페이로드 주의사항: 공식 문서에 따르면 최대 페이로드 사용 시 50% 이하 확장(extension)을 권장함.

AI 시리즈 (2025년 출시)

Trossen Robotics는 2025년 ML/VLA 연구에 특화된 새로운 AI 하드웨어 라인업을 발표했다. 아래 정보는 WidowX AI 공식 페이지Trossen AI 페이지를 참조하였다.

모델특징주요 용도
WidowX AI6DoF, 700mm 리치, 1.5kg 페이로드, 1mm 정확도, iNerve 컨트롤러ML/VLA 연구 기본 플랫폼
Solo AILeader-Follower 구성, 텔레오퍼레이션 특화데이터 수집 최적화
Mobile AIAgileX Tracer 모바일 베이스 통합Mobile Manipulation 연구
Stationary AI4암 복합 워크스테이션대규모 멀티암 실험

WidowX AI는 Base, Leader, Follower 3가지 구성으로 제공되며, Follower 버전에는 Intel RealSense D405 깊이 카메라가 장착된다. 공식 사이트에 따르면 배송은 2025년 4월 중순부터 시작되었다.


Dynamixel 서보 기술

Interbotix 로봇 암의 핵심은 ROBOTIS의 Dynamixel X-Series 스마트 서보 모터다. 아래 사양은 ROBOTIS e-ManualInterbotix 공식 문서를 참조하였다.

주요 특징

특성설명
위치 해상도4096 포지션 (약 0.088도)
PID 제어사용자 정의 PID 파라미터 설정 가능
피드백위치, 속도, 전류, 온도, 전압 실시간 모니터링
통신TTL 또는 RS-485 (모델에 따라 상이), 1Mbps 기본 baudrate
컴플라이언스소프트웨어 기반 컴플라이언스 설정

사용 서보 모델

  • XL430-W250: 소형 경량, 그리퍼 및 손목 관절용
  • XM430-W350: 중형, 중간 관절용, 높은 토크 대 무게 비
  • XM540-W270: 대형, 베이스 및 어깨 관절용, 최고 토크

U2D2 컨트롤러

모든 Interbotix 암은 ROBOTIS U2D2 인터페이스를 통해 PC와 연결된다. USB to TTL 변환기로, Dynamixel Wizard 소프트웨어와 ROS/ROS2에 직접 접근할 수 있다.


소프트웨어 생태계

ROS/ROS2 지원

아래 지원 현황은 Interbotix 공식 문서를 기반으로 한다. ROS 배포판의 EOL(End of Life) 상태는 시간에 따라 변경될 수 있다.

버전상태비고
ROS Melodic지원 (Legacy)Ubuntu 18.04, EOL 2023년
ROS Noetic지원Ubuntu 20.04, 최종 ROS1 LTS
ROS2 Galactic지원 (Legacy)EOL 2022년 11월
ROS2 Humble지원 (권장)Ubuntu 22.04 LTS, 2027년까지 지원
ROS2 Rolling지원개발용 rolling release

권장: 새로운 프로젝트는 ROS2 Humble 사용을 권장함.

제공 패키지

  • URDF/메시: 정확한 관성 모델 포함
  • 드라이버 노드: 물리 로봇 제어 및 관절 상태 발행
  • MoveIt 통합: 모션 플래닝 지원
  • Gazebo 시뮬레이션: 시뮬레이션 환경 제공
  • MuJoCo 모델: 물리 시뮬레이션 (ALOHA 2 포함)

AI/ML 프레임워크 통합 (AI 시리즈)

  • Hugging Face LeRobot: 데이터 파이프라인 및 모델 학습
  • OpenPI (Physical Intelligence): Pi0, Pi0.5 정책 학습 및 추론
  • NVIDIA Isaac: 시뮬레이션 및 배포
  • 사전 학습 모델 지원: ALOHA, BiACT, OCTO, Crossformers 등

핵심 의의

1. 저비용 고성능 연구 플랫폼

Interbotix 로봇 암은 $2,000-$6,500 가격대에서 연구 품질의 정밀도(1mm 반복 정밀도)와 신뢰성을 제공한다. 이는 기존 산업용 로봇 암 대비 상당히 낮은 비용으로, 학계와 스타트업이 대규모 데이터 수집 및 VLA 연구를 수행할 수 있게 했다.

2. Open Source 생태계

모든 하드웨어 설계, 드라이버, URDF 모델이 오픈소스로 공개되어 있다. GitHub의 interbotix 레포지토리에서 모든 코드에 접근할 수 있으며, 커뮤니티 기여를 통해 지속적으로 개선되고 있다.

3. 표준화된 하드웨어

ALOHA, BridgeData V2, Open X-Embodiment 등 주요 로봇 학습 데이터셋이 모두 Interbotix 암으로 수집되었다. 이로 인해 연구자들은 동일한 하드웨어에서 사전 학습된 모델을 직접 테스트하고 파인튜닝할 수 있다.

4. Embodied AI 연구의 민주화

Mobile ALOHA 시스템(약 $32,000, ALOHA 2 논문 참조)부터 단일 암까지, 다양한 예산에 맞는 옵션을 제공하여 더 많은 연구자들이 Embodied AI 연구에 참여할 수 있게 했다.


VLA 연구 활용

ALOHA / Mobile ALOHA

Stanford의 Tony Z. Zhao, Zipeng Fu, Chelsea Finn 연구팀이 개발한 ALOHA(A Low-cost Open-source Hardware System for Bimanual Teleoperation)는 Interbotix 암을 핵심으로 한다2.

구성 요소하드웨어역할
Leader 암WidowX-250 6DoF x 2인간 텔레오퍼레이터 입력
Follower 암ViperX-300 6DoF x 2실제 작업 수행
모바일 베이스AgileX Tracer이동 (Mobile ALOHA)
카메라손목 2개 + 상단 1개시각 입력

ALOHA 2는 개선된 성능, 인체공학, 견고성을 제공하며, 모든 하드웨어 설계와 MuJoCo 모델이 오픈소스로 공개되었다.

주요 논문:

  • Zhao et al., “Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware” (RSS 2023)
  • Fu et al., “Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation” (2024)

BridgeData V2

UC Berkeley RAIL Lab에서 수집한 대규모 로봇 조작 데이터셋이다3.

항목내용
로봇WidowX-250 6DoF
궤적 수60,096개
환경 수24개
스킬 수13개
제어 주파수5Hz
평균 궤적 길이38 타임스텝

Pick-and-place, pushing, sweeping, 서랍/문 조작, 블록 쌓기, 옷 접기 등 다양한 기초 조작 스킬을 포함한다. VR 컨트롤러로 텔레오퍼레이션하여 수집했으며, Open X-Embodiment 데이터셋의 핵심 구성 요소다.

주요 논문:

  • Walke et al., “BridgeData V2: A Dataset for Robot Learning at Scale” (CoRL 2023)

Open X-Embodiment

Google DeepMind 주도로 34개 연구실에서 수집한 세계 최대 오픈소스 로봇 데이터셋이다4.

항목내용
총 궤적 수100만+
로봇 종류22개 embodiment
스킬 수500개 이상
태스크 수150,000개 이상
데이터 포맷RLDS (TFRecord)

WidowX로 수집된 Bridge 데이터셋은 Open X-Embodiment의 핵심 구성 요소이며, RT-X 모델 학습에서 cross-robot transfer의 중요한 역할을 한다. 연구에 따르면 WidowX 데이터에서 학습한 스킬이 Google Robot으로 전이되는 것이 확인되었다.

주요 논문:

  • Open X-Embodiment Collaboration, “Open X-Embodiment: Robotic Learning Datasets and RT-X Models” (2023)

OpenVLA

Stanford와 UC Berkeley 연구팀이 개발한 오픈소스 VLA 모델이다5.

항목내용
파라미터 수7B
학습 데이터Open X-Embodiment 970k 궤적
기반 모델Llama 2 + DINOv2 + SigLIP
학습 인프라64x A100 GPU, 15일

WidowX와 Google Robot embodiment에서 29개 평가 태스크에 걸쳐 RT-2-X(55B) 대비 16.5% 높은 성공률을 달성했다. BridgeData V2의 WidowX 태스크에서 특히 강력한 성능을 보여준다.

LoRA를 통한 효율적 파인튜닝과 양자화를 통한 경량화를 지원하여, 소비자용 GPU에서도 운용 가능하다.

주요 논문:

  • Kim et al., “OpenVLA: An Open-Source Vision-Language-Action Model” (2024)

Pi0 (Physical Intelligence)

Physical Intelligence에서 개발한 범용 로봇 제어를 위한 VLA 플로우 모델이다6.

항목내용
기반 모델PaliGemma VLM
학습 데이터7개 로봇 플랫폼, 68개 태스크
제어 주파수최대 50Hz
액션 생성Flow Matching (Diffusion 변형)

빨래 접기, 테이블 정리, 장보기 봉지 담기, 박스 조립 등 복잡한 실제 태스크에서 zero-shot 및 파인튜닝 성능을 입증했다. 단일 암, 양팔, 모바일 매니퓰레이터 등 다양한 로봇 타입에서 cross-embodiment 학습을 지원한다.

2025년 2월 OpenPI 프레임워크를 오픈소스로 공개했으며, Trossen AI 하드웨어와 완전 통합되었다.

주요 논문:

  • Black et al., “Pi0: A Vision-Language-Action Flow Model for General Robot Control” (2024)

See Also


References

공식 문서

데이터셋

논문

소프트웨어

Footnotes

  1. Trossen Robotics 회사 프로필은 Tracxn, CBInsights, Crunchbase 등 비즈니스 데이터베이스를 참조함. 직원 수, 매출 등 세부 지표는 데이터베이스마다 상이할 수 있음.

  2. Fu et al., “ALOHA 2: An Enhanced Low-Cost Hardware for Bimanual Teleoperation”, 2024. https://aloha-2.github.io/

  3. Walke et al., “BridgeData V2: A Dataset for Robot Learning at Scale”, CoRL 2023. https://rail-berkeley.github.io/bridgedata/

  4. Open X-Embodiment Collaboration, “Open X-Embodiment: Robotic Learning Datasets and RT-X Models”, arXiv:2310.08864, 2023.

  5. Kim et al., “OpenVLA: An Open-Source Vision-Language-Action Model”, arXiv:2406.09246, 2024.

  6. Black et al., “Pi0: A Vision-Language-Action Flow Model for General Robot Control”, arXiv:2410.24164, 2024.