研究プロジェクトの概要を紹介しています。各プロジェクトの詳細は、プロジェクトページをご覧ください!
Imitation Learning for Robot Arm (Position / Force Control)
Bi-AQUA: Bilateral Control-Based Imitation Learning for Underwater Robot Arms via Lighting-Aware Action Chunking with Transformers
世界初の水中バイラテラル制御に基づく模倣学習を実世界で実現。水中・水上の画像・照明・位置・力情報に基づくロボット学習モデルと位置・力制御による自律動作
Bi-VLA: Bilateral Control-Based Imitation Learning via Vision-Language Fusion for Action Generation
言語による視覚情報の調整によるバイラテラル制御に基づく模倣学習。自然言語による指示と視覚情報を統合してアクション生成を実現。
Bi-LAT: Bilateral Control-Based Imitation Learning via Natural Language and Action Chunking with Transformers
自然言語とアクションチャンキングを組み合わせたバイラテラル制御に基づく模倣学習。言語指示により力加減を考慮したロボット操作を実現。
ALPHA-α and Bi-ACT
2025
IEEE Access
ALPHA-α and Bi-ACT Are All You Need: Importance of Position and Force Control and Information in Imitation Learning for Unimanual and Bimanual Robotic Manipulation
日常タスクにおける研究用として、低コストな単腕および双腕ロボット操作における位置・力制御と情報の重要性を提案。バイラテラル制御に基づく模倣学習Bi-ACTの効果を実証。卵運搬やペットボトルのキャップあけなど。
DABI: Evaluation of Data Augmentation Methods Using Downsampling in Bilateral Control-Based Imitation Learning with Images
画像を用いたバイラテラル制御に基づく模倣学習における、ダウンサンプリングを用いたデータ拡張手法の評価。異なるセンサ周波数への対応。
Bi-ACT: Bilateral Control-Based Imitation Learning via Action Chunking with Transformer
ALOHA/ACTで有名なAction Chunking with Transformers (ACT)と位置と力制御のバイラテラル制御に基づく模倣学習を融合させたBi-ACTの提案。
未学習の物体の汎化等には、力制御の重要性が明らかになった。
ILBiT: Imitation Learning for Robot Using Position and Torque Information based on Bilateral Control with Transformer
Transformer Encoderを活用した位置とトルク情報を用いたバイラテラル制御に基づく模倣学習。
LfDT:Learning Dual-Arm Manipulation from Demonstration Translated from a Human and Robotic Arm
双腕協調タスクにおいて人間-ロボットのデモデータのペアからロボット-ロボットのデモデータへとDomain Translationし、模倣学習を行うフレームワークであるLfDTを提案。CycleGAN的にCross-Domain Correspondence。
Mixed Reality-based Robot Interface
MR-UBi: Mixed Reality-Based Underwater Robot Arm Teleoperation System with Reaction Torque Indicator via Bilateral Control
水中において反力トルクインジケーターを備えた複合現実(MR: Mixed Reality)ベースの水中ロボットアーム遠隔操作システム。バイラテラル制御による直感的な操作を実現。
MRHaD: Mixed Reality-based Hand-Drawn Map Editing Interface for Mobile Robot Navigation
手描きマップ編集インターフェースを備えた複合現実(MR: Mixed Reality)ベースのモバイルロボットナビゲーションシステム。直感的な地図編集を実現。
MRNaB
2024
Advanced Robotics
MRNaB: Mixed Reality-based Robot Navigation Interface using Optical-see-through MR-beacon
複合現実(MR: Mixed Reality)ベースのロボットナビゲーションインターフェース。実世界とVirtual空間の融合によるナビゲーションを実現。
Autonomous Mobile Robot
BSL
2023
IEEE Transactions on Industry Applications
BSL: Navigation Method Considering Blind Spots Based on ROS Navigation Stack and Blind Spots Layer for Mobile Robot
ROS Navigation StackとBlind Spots Layerに基づく、センサ死角を考慮したモバイルロボットのナビゲーション手法。
DQDWA: Local Path Planning: Dynamic Window Approach With Q-Learning Considering Congestion Environments for Mobile Robot
強化学習(Q-Learning)に基づく動的なDWAのパラメータ調整による、混雑環境を考慮したモバイルロボットの局所経路計画。
DWV: Local Path Planning: Dynamic Window Approach With Virtual Manipulators Considering Dynamic Obstacles
動的障害物を考慮した仮想マニピュレータを用いたDWAによる局所経路計画。動的環境での安全なナビゲーションを実現。
Intelligent Robot System
TRAIL: Team Description Paper for RoboCup@Home 2023
RoboCup@Home 2023のTRAILチーム論文。家庭環境でのロボット操作とナビゲーションに関する研究。
OUXT Polaris: Autonomous Navigation System for the 2022 Maritime RobotX Challenge
Maritime RobotX Challengeのための自律ナビゲーションシステム。海上ロボットの自律航行技術を実証。