2017/8/15-후기

by 정해원 | 2017-08-16 00:37
vr 로봇 아두이노 원격 현전

 어제부로 7월 18일부터 8월 14일까지 약 한달여간의 기간 동안 진행된 아바타 로봇 제작 프로젝트가 마무리 되었습니다. 다양한 이유로 중간에 몇번 쉬어가기는 했으나, 그래도 지금까지 포기하지 않고 꾸준히 프로젝트를 진행해온 제 자신이 자랑스럽네요. 이 아바타 로봇, 즉 '원격 현전 로봇'제작 프로젝트는 끝났지만 아직 끝나지 않았습니다. 사실 제가 진짜로 만들고 싶은 아바타 로봇은 고등학생 수준에서 만들수 있는 이런 단순한 로봇이 아니라, 정말 인간의 동작을 전부 정교하게 따라하고, 5감까지 원격으로  느낄 수 있는 로봇이니깐요. 앞으로는 이것을 수많은 목표들 중 하나로 잡고 열심히 앞을 향해 나아가볼 생각 입니다.

 이 프로젝트를 진행 하면서 많은것들을 체험하고, 느끼고, 깨닳고, 그리고 반성할 수 있었습니다. 우선 제가 알고 있는 지식이 너무 부족할  뿐만 아니라 별다른 정보도 없이 '할 수 있을 것 같다'는 느낌 하나만으로 무턱대고 진행한 것 같습니다. 특히 자이로 센서를 조작하면서 이런 생각을 많이 했습니다. 이 프로젝트를 시작하기 전, 저는 자이로 센서가 조이스틱 모듈처럼 원하는 값이 바로 나오고 그 값을 0~180사이의 숫자로만 변형해주면 쉽게 서보모터를 조작할 수 있을 것이라 생각 했었습니다. 하지만 그게 아니더군요. 기울 정도는 바로 값이 나왔지만 회전각은 고정되어 있지 않아 따로 각도를 구하는 프로그렘을 작성해야 했습니다. 자이로 센서에 대해 별다른 개념이 없는 저로썬 힘든 작업이었고 결국 로봇 머리의 회전은 머리를 좌 우로 기울여 조종하는 방식으로 변경해야 했습니다. 또 I2C통신과 wire함수에 대한 정확한 이해가 부족하여 자이로 센서 2개의 값을 받아오는 프로그렘을 작성하지 못했고, 결국 손목과 팔의 관절을 포기해야 했습니다.

 그리고 '너무 막연하게 시작했다'라는 생각도 드네요. 보통 무언가 제작하기 위해서는 그것의 세부적인 설계도와 어떤 제료를 사용할 것인지가 명확해야 합니다. 하지만 저는 그런 과정은 생략해 버린채 주요 기능만 어떻게 구현할 것인지만 신경썼죠. 서보  모터의 힘을 고려하지 않고 즉성해서 팔의 재료를 골랐고 덕분에 서ㅏ보모터가 로봇 손의 무게를 견디지 못해 작동이 불가능한 상황이 되어 버렸습니다. 다음번에 이런 프로젝트를 진행할때는 하다 못해 정확한 재료와 그거을 토대로 모터나 각종 센서의 스펙을 고려하여 선정해야겠다는 갱각을 하게 되었습니다.

 추가로 선 정리하는 법을 배웠으면 하네요. 제 로봇 사진을 보시면 알다시피 선이 무척 너저분 합니다;; 그덕에 어느선이 어디어 꽂혀있는지 확인하기가 무척 힘들었습니다...

 물론 이 프로젝트를 진행하며 반성할 점만 있었던 것은 아닙니다. 회로 구성이나 프로그렘 작성에 있어서의 실력을 향상할 수 있었고 무었보다도 그 어떤 일보다 열중하고있는 제 자신을 발견할 수 있었습니다. 고3이라 늦은시간 학원이 끝나 피곤할 시간에 작업하는데도 불구하고 일을 진행하다보면 어느순간 2시간은 거뜬히 넘어가 있더군요. 정말 이 일을 할때 만큼은 힘들다는 생각보다는 즐겁다는 생각이 더 많이 드는 것 같습니다. 저랑 딱 맞는다고 해야할까... 로봇과 저는 마치 n극과 s극인 것 같더군요.(이 열정으로 공부를 했다면 내신 1.0을 맞았을 수도 있을정도의 느낌?)

 물론 중간중간 생각되로 되지 않을땐 짜증도 나고 포기하고 싶은 생각도 들었습니다. 그래도 제가 생각하는 로봇이 조금씩 모습을 들어내는것을 보면 엄청난 희열과 감동이 느껴져서 그만둘수가 없더군요. 덕분에 여름방학을 즐겁게 보낸 것 같습니다. 비록 처음 계획한것에서 몇가지 기능이 빠지고 변경되는 등 많이 달라지기는 했지만, 그래도 무사히 완성할 수 있어서 정말 좋네요. 당분간  이런 일을 다시 하는건 조금 힘들겠지만, 그래도 다음번에는 좀더 전문적으로 로봇을 제작해보고, 배워보고 싶습니다.

 어쩌다보니 글이 많이 길어졌네요;; 

 처음 이 프로젝트를 시작할 때 원격 현전 방식을 도입한 로봇들의 예시를 간단히 보여 드렸는데요, 그 로봇들 말고 또 어떤것들이 있을지, 그리고 어느 정도 까지 구현되어 있을지 궁금해서 약간의 조사를 해봤습니다. 조사 해보니 제가 생각하는 로봇과 비슷하거나 거의 동일한 로봇들이 다양한 방식으로 구현되어지고 있더군요. 이번에는 그중 몇가지를 간단하게 소개해 드리고자 합니다.

1. 아바타 로봇-미믹(mimic)

 이 로봇은 제가 만든 로봇과 상당히 유사한 로봇 입니다. 앙증맞은 생김새는 인간이라기 보다는 영화 '월-e'의 월e를 닮았죠. 설명을 보니 로봇이  보는 화면을 고글을 통해 볼 수 있고 발판을 통하여 로봇을 직접 움직일 수 있는 것 같습니다. 발로 조종하는 덕분에 양손을 쓸 수 있군요. 저도 이 부분을 참고해서 만들어 볼 걸 그랬습니다. 이런것 말고도 배쪽의 장치가 손의 장치와 연결되어 로봇이 물건을 집는 감각도 느낄 수 있게 해주는 군요. 한가지 아쉬운 점은 로봇의 손이 인간의 손 형태가 아니라 집게 형태라는 점입니다. 뭐 로봇 생김새를 보면 이쪽이 더 어울릴지도 모르겠군요.

http://blog.naver.com/PostView.nhn?blogId=ktgyun&logNo=220829285571&categoryNo=0&parentCategoryNo=0&viewDate=&currentPage=1&postListTopCurrentPage=1&from=postList


2.UNIST에서 개발중인 원격 조종 재난 대응 로봇

 이 로봇은 상당한 자유도와 퀠리티를 가지고 있습니다. 3자유도의 머리와  7개의 관절을 지닌 로봇팔, 거기다 물건을 집는 피드백에 일치도 까지... 제가 만들고 싶었던 로봇과 거의 일치하는 모습입니다. 현재 vr기술 한계강 원근감이 잘 느껴지지 않는다는 점과 통신의 지연 등 다양한 문제점이 존재하지만 정말 기대되는 로봇인 것 같습니다.

http://news.mt.co.kr/mtview.php?no=2016111715081737414&outlink=1&ref=http%3A%2F%2Fsearch.naver.com


3. 로봇 아바타를 통한 원격 Xsens MVN  모션 캡쳐

 앞서 소개해 드린 로봇들이 웨어러블 기기를 입고 조종하는 방식이라면 이 로봇은 조금 다르게  모션 캡쳐 방식을 이용하는 로봇 입니다. 마치 영화 '리얼 스틸'의 쉐도우 기능을 떠올리게 하는 군요. 영상이 영어 인데다가  로봇 자체가 얼굴과 상반신 일부, 그리고 중간에 손 정도 밖에 나오지 않아 동작 수준이 어느정도 되는지는 잘 모르겠지만 그래도 꽤나  잘 따라 움직이는 것 같습니다. 이 영상을 보니 모션 캡쳐 방식도 괜찮은 것 같다는 생각이 드네요. 이 로봇의 특이한 점은 바로 얼굴 표정이 잇다는 점입니다. 로봇 조종자의 머리에 씌워진 고글을 통해 조종자의 표정을 분석하여 로봇 머리의 디스플레이로 나타내는 것 같네요. 참신한 기능이라는 생각은 들지만, 뭐랄가 조금 이상한 느김이드네요;;

http://blog.naver.com/motiontech/157782771




4. XRobots-Ultron

 아마 많은 분들이 XRbotos을 알고 계실거라 생각하는데요, 이분은 개인적으로 다양한 로봇 작품을 제작하시는 분입니다. 아이언맨의 헐크버스터 라던가 아님 스타워즈의 bb-8같은 작품을 만드셨습니다. 저도 나중에 저분처럼  만들고  싶은 다양한 로봇을 직접 제작하며 살고  싶네요. 아무튼 이분이 만드신 ultron은 아직 상채 뿐이지만 몸에 부착된 센서들을 통하여 동작을 따라하는것 뿐만 아니라 vr기술을 이용하여 가상의 물체도 인식할 수 있는 것 같습니다. 하체만 완성되면 정말 멋질 것 같네요.

https://www.youtube.com/watch?v=HxAPFat2RNM









댓글 2

MADE BY

2017/8/15-후기현재글 2017/8/14 이전글