今回は、いろいろ実験をしてみた。
結果
・簡単な小タスクは自分で作成やいじることはできる。
・タスク自体は容量が思ったより小さい
・タスクの変更により自動認識カメラの範囲が変更できるが変更しない場合、サーチカメラの範囲外にオブジェクトを発見して、マッピングしてもブラストは行わない。
・開始位置はタスクを変更することにより好きな位置に変更できる。
・オブジェクトの位置をアルファ1ブラストロボットに接近させても障害物の範囲を設定すればサーチ中に衝突することは無い。すなわち意図的、不注意でわざわざ障害物を置かない限りカメラサー中にアルファ1ブラストロボットのアームがぶつかることは無い。
・サーチ後にブラストの計画が決定されるがブラストはシュミレーション通り実行されるため現実のオブジェクトが仮想オブジェクトと差異がある場合で且つ重なり合っている場合シュミレーション、すなわち仮想オブジェクトの軌道を実行する。この点に関してはセーバー側に質問して対処策を聞くことにする。
・本体に搭載されている端末機の能力が、私が所有しているゲーミングパソコンより処理能力が遅いため自動プログラム生成に時間がかかっている。マザーボードとグラフィックボードが交換できるか聞くことにする。実用には全く問題ないが、コンピュータなどは消耗品なので交換できるものは交換、バージョンアップを図りたい。
確かに、我々もセーバー側に来てもらい1週間ほどレクチャーを受けてその後、シドニーのセーバー社へ2回ほど行けば、ソフトウエァ側は対応できるようになる。ロボット本体に関してや機器連動に関しては電気屋さんがいれば、簡単である。
最近、シドニーに行った時のことが理解し始めてきた。
「タスクの全自作マスターはかなり難しいよ、韓国(某最大手社)の連中は何度もシドニーに来てるよ。お勧めしないな。」
「これくらいだったら、デンマーク側でやれてるよ (動作シュミレーションを見せてくれた)」
等々
27年間もブラストに関する仕事をやっていた中で初めて面白いと感じた。
ようやく、もやもやとした世界から脱却できそうだ。アルファ1ブラストロボットのような機械が珍しくない業界になれば、レベルアップしていくだろう。
2日ほど前にタスクをシュミレーションで確認した動画キャプチャー
昨日、実機で実際に動かした動画。
スタートの初期ポーズも変更できる |
仕舞のポーズ |
低床ユニックのブームのような初期ポーズ |
レーザースポットと拡散のLED灯が共有しているネコライトを装着したノズル |