본 과제는 AGV 같은 이동 로봇에 쓰는 소형·고효율 모터 드라이브를 지능형 제어로 자동 튜닝까지 되게 만드는 연구임.
연구 목표는 기계학습 기반 자동튜닝 알고리즘 탑재, 60V/60A Brushless DC 모터 드라이브 시제품 개발, 전력밀도 >295W/in3로 사이즈 25% 이상 저감 및 진동억제·관성추정·PID 자동이득튜닝 구현임. 핵심 연구 내용은 3상 인버터 모듈(효율>98%) 소형화, DSP 기반 SVPWM 정현파 FOC 제어기와 통신(CAN/RS-485/USB/EtherCAT) 구현, HMI 포함 자동튜닝 S/W Pack 개발 및 공인 성능평가임. 기대 효과는 AGV 구동장치 등 e모빌리티·로봇·UAV 적용, 소형성·제어성·가격 경쟁력 확보, 인공지능기법 기반 수입대체 및 수출 기대임.
최근, 상용화 수준의 증강현실 응용들이 서비스되고 있지만 포켓몬-고와 같이 위치 정보에 기반한 서비스가 대부분이며, 현실의 매개체에 증강하는 기술을 활용한 서비스는 FUN의 수준을 벗어나지 못하고 있는 실정이다. 증강현실을 활용한 응용들은 무궁무진 하지만 아직까지는 기술적인 한계 때문에 그 시나리오의 제약이 많은 것이 사실이다. 대표적인 예로 모바일 환경에서 인식해야 하는 대상의 수가 많을 때를 들 수 있다. 일반적으로 인식 대상의 수가 증가함에 따라 메모리 사용량과 연산량 또한 그에 비례하여 증가하며 이는 증강현실 서비스의 필수 조건인 실시간성을 위협하는 요소로 작용한다.
최초의 자립형 모바일 증강현실 시스템이 제안된 이래로 인식하고자 하는 물체의 수를 늘리기 위한 노력은 있어 왔지만 이를 대규모의 물체로 확장하기 위해 대부분 서버-클라이언트 모델에 의지하고 있는 실정이다. 하지만 이러한 방식은 필연적으로 네트워크 통신을 필요로 하며, 사용자의 모바일 기기의 네트워크 연결 상태에 따라 서비스의 품질이 좌우되기도 한다. 뿐만 아니라 이러한 방식은 증강현실에 있어서 가장 중요한 요소 중 하나인 몰입감을 방해한다. 몰입감을 위해서는 사용자의 시점이 물체를 향했을 때, 즉시 해당 물체에 관련된 가상의 컨텐츠가 증강되어야 한다. 이를 위해서는 사용자의 모바일 기기에 내장된 카메라를 통해 들어오는 매 프레임마다의 처리가 필요한데, 매 프레임을 서버로 전송한다는 것은 현실적으로 불가능하기 때문이다.
본 연구에서는 모바일 기기를 통해 증강된 결과를 확인하는 증강현실을 모바일 증강현실이라 부르고, 서버나 다른 기기의 도움 없이 모바일 기기에서 모든 처리가 이루어지는 증강현실을 자립형 모바일 증강현실이라 부르고자 한다. 현재까지는 인식하고자 하는 물체의 수가 대규모일 때의 자립형 모바일 증강현실 시스템, 이른 바 대규모 자립형 모바일 증강현실 시스템은 개발되지 않고 있으며, 본 연구에서는 이를 실현하기 위해 필요한 이미지 프로세싱, 컴퓨터 비전 등의 기술에 대해 연구한다.
최근, 상용화 수준의 증강현실 응용들이 서비스되고 있지만 포켓몬-고와 같이 위치 정보에 기반한 서비스가 대부분이며, 현실의 매개체에 증강하는 기술을 활용한 서비스는 FUN의 수준을 벗어나지 못하고 있는 실정이다. 증강현실을 활용한 응용들은 무궁무진 하지만 아직까지는 기술적인 한계 때문에 그 시나리오의 제약이 많은 것이 사실이다. 대표적인 예로 모바일 환경에서 인식해야 하는 대상의 수가 많을 때를 들 수 있다. 일반적으로 인식 대상의 수가 증가함에 따라 메모리 사용량과 연산량 또한 그에 비례하여 증가하며 이는 증강현실 서비스의 필수 조건인 실시간성을 위협하는 요소로 작용한다.
최초의 자립형 모바일 증강현실 시스템이 제안된 이래로 인식하고자 하는 물체의 수를 늘리기 위한 노력은 있어 왔지만 이를 대규모의 물체로 확장하기 위해 대부분 서버-클라이언트 모델에 의지하고 있는 실정이다. 하지만 이러한 방식은 필연적으로 네트워크 통신을 필요로 하며, 사용자의 모바일 기기의 네트워크 연결 상태에 따라 서비스의 품질이 좌우되기도 한다. 뿐만 아니라 이러한 방식은 증강현실에 있어서 가장 중요한 요소 중 하나인 몰입감을 방해한다. 몰입감을 위해서는 사용자의 시점이 물체를 향했을 때, 즉시 해당 물체에 관련된 가상의 컨텐츠가 증강되어야 한다. 이를 위해서는 사용자의 모바일 기기에 내장된 카메라를 통해 들어오는 매 프레임마다의 처리가 필요한데, 매 프레임을 서버로 전송한다는 것은 현실적으로 불가능하기 때문이다.
본 연구에서는 모바일 기기를 통해 증강된 결과를 확인하는 증강현실을 모바일 증강현실이라 부르고, 서버나 다른 기기의 도움 없이 모바일 기기에서 모든 처리가 이루어지는 증강현실을 자립형 모바일 증강현실이라 부르고자 한다. 현재까지는 인식하고자 하는 물체의 수가 대규모일 때의 자립형 모바일 증강현실 시스템, 이른 바 대규모 자립형 모바일 증강현실 시스템은 개발되지 않고 있으며, 본 연구에서는 이를 실현하기 위해 필요한 이미지 프로세싱, 컴퓨터 비전 등의 기술에 대해 연구한다.