2010年度 山彦デモプログラミングコンテスト入賞作品

第1位 Robodai2はじめての自律走行

渡辺 敦志

このデモンストレーションは、動力を持たない手押し台車を、自律移動ロボットが押すことで、その位置・姿勢を制御することを目的としています。 台車を制御するロボットは、まず、レーザー測域センサ(URG)を用いて、台車のハンドルのポールと前を歩く人間の足を測定します。 そして、台車の角度を人間の方向に向け、台車と人間の距離を一定値にするように、台車を押す位置と角度を変化させて、フィードバック制御を行います。 これにより、台車が、前を歩く人間に追従するように制御することが可能です。

第2位 走れmeros!!!

阪東 茂

床に置いたマーカーでロボット(山彦meros)に自由な経路を指定するシステムを組んでみました。 ロボットにはカメラが搭載されており、カメラから取得した画像からARToolKitでマーカーの認識及び位置・姿勢の計算を行います。 そして、マーカーの上に仮想の矢印を表示し、その方向へロボットを走行させます。

第3位 特別教習

尾形 一気

横幅34cmのロボットが、幅40cmの通路を進んでいきます。 URGから得られたデータを使って、ロボットは死角になっている背後の壁の位置を推測します。 そして、自動車のようにうまく切り返しを行いながら、右・左折とバックで車庫入れをします。

第4位 ビジョンでカルガモ

森川 直樹

レーザースキャナを使わず、カメラだけで人間追従を行った。 方法は、カメラからのカラー画像の中から追従したい物体を選択し、その領域の色相のヒストグラムを作成する。 そのヒストグラムを画像に再投影することで物体の色相ヒストグラムと同等の色がある領域だけが現れる。 その画像から輪郭抽出をしノイズを取り除いた後に一番大きな塊を追従することで物体を追従することができる。 ロボットの制御は追従している物体の中心位置の移動量を使い行っている。 意外としっかり追従できているが明るい場所でしか使うことができないことと、色がはっきりしている物しか認識できないのが難点である。

第5位 DanceDanceRobot

著作権への配慮から動画は非公開です。ご了承下さい。
木下 和樹

スクリーンに投影されたゲーム画面をWebカメラで取り込み、その情報を基に音楽ゲームをプレイさせる。 画面の下から上に向かって矢印が流れてくるので、ロボットはそれを認識し、ゲームを動かしているパソコンに認識した矢印の方向を送ると同時にダンスする。 スクリーンを撮影した画像を輝度で二値化し、ラベリングを行うことで輝度値が一定以上の領域を計算する。 矢印の大きさは一定なので、ラベリングされた領域の高さ・幅が矢印と一致するものを矢印として扱い、次のフレームから追跡をかける。 同じ向きの矢印は、同じ場所に現れるため、向きはスクリーン上の位置から判断する。 判断した矢印がスクリーン上部まで上がったところで、TCP/IPを用いて矢印の方向を文字列でゲームを動かしているパソコンに送り、 その文字列を仮想ジョイパッド情報に変換することでゲームをプレイさせた。 したがって、ダンスは飾りです。