まず、当日まで実験用のテストピースの形状などを全く告知されずにアルファ1にブラスト計画をさせ、ブラスト処理を行う。
1.テストピースを初めてアルファ1ロボットに見させて何分後に自分でブラスト処理するか?
2.テスト開始時にその場でメールにて3D図面を受け取りアルファ1ロボットに”教えて”あげる。その結果、どこまで精度があげられるか?
この条件は、通常のプログラム型ロボットでは絶対にできない芸当である。
すでに、対抗比較が人間ではなく、またその辺のロボットではない。
ビジュアルサーチアルゴリズムVS3Dデータビジュアルアルゴリズムである。
結果は当然のごとくビジュアルサーチアルゴリズムの方が5分程度でブラスト開始
アルファ1ロボットが見える範囲でSa2.5で処理時間は7分ほど。
3Dデータビジュアルアルゴリズムは20分ほど程度でブラスト開始全面Sa3処理。
特に念入りに規則正しくブラストしているので重複ブラスト処理の場所は光の加減で
光沢が色分けされたように見える。
結果的には3Dデータがある方が完ぺきなブラストをする。
しかし、3Dデータが無くても人が処理するよりははるかに安定したブラスト処理ができる事が判明した。
左側は3Dデータあり、右は無し左は色むらに見えるがブラスト処理のノズル方向性が一定のため光の反射が一定になるため写真で白とグレーに見える。右はビジュアルサーチアルゴリズムなので人間的な判断をさせてみたため見えないところはブラスト処理をさせない制御になっている。 |