その大きな原因の一つがISO8501-1によるSa1~3までに代表される
「目視判定」(*SSPCでは、顕微鏡は使うなとまで書いてある。)
であることは、なんとなく気付いている。
しかし、じゃあなんで「目視判定」はだめなのか?
人間は見たものに関する情報を瞬時に解析する能力が高すぎるのである。
アルファ1ブラストロボットの実験を行っていると気が付いたのだが
人間と比較して2眼式でレーザー距離測定も行いコンピュータで解析しても対象物への情報の少なさが痛いほど伝わってくる。
どういう事かを簡単に説明すると、人間がブラスト処理をして処理後の判定を行うとすると、瞬時に対象物の色合いを経験から判定してしまうのである。具体的言えば、良くブラストされているものは漠然とした「白銀」であると記憶されている。だから、細かく、白い研削材でブラストすればSa2.5に簡単になると思うのであり、判定する側も、事実そう判定するのである。ゲシュタルト的という事だ。
ISO8501-1では、2/3以上除錆されていればSa2,95%以上除錆でSa2.5、100%でSa3だが、この色合いや材質を見越して人間が得意とする判定能力をスウエーデンで60年前に処理規格として採用してしまったもんだから、AIがある現在でも中々、変えられない。ゲシュタルト的なのは、AIが苦手である例として模様のような下手くそな字を書いて横にヒントとなることを示す下手くそな絵が描いてあるとき正確に3番目の文字を当てるようなことを言う。空間をアルファ1ブラストロボットに認識させブラストさせタスクをジェネレートさせるには、ある程度情報を限定させるしかない。アルファ1ブラストロボットの設計者はフレーム問題を避けるために2方法を採用することにしたようである。したようであるというのは、設計者の論文を読んでいる最中であるのと、この1年間色々試した経験から思ったのである。まず、方法1として簡単な方法として対象物の図面データをアルファ1ブラストロボットに覚えさせて同じような線と角度を持った物を拾い出し直線的なブラスト処理タスクを自己生成させる。対象位置の限定はオペレーターである人間に任せる。このようにしてフレーム問題を解決した。ブラスト処理される現実の対象物はほとんどが線と角度で構成されている人工物であるからである。
次に方法2として対象物のデータがない場合のタスクジェネレートだが、これは、その場で得た情報に対してすべてをブラスト処理を線で構成させて軌跡として処理した。
面積がある程度確定している面に関しては方法1と同様に処理するアルゴリズムが採用されている。その境界は300mm×300mmくらいと思われる。
次回に続く
対象物のデータがある場合、その位置がずれていてもアルファ1ブラストロボットが見た情報と比較して位置を補正する |
アルファ1ブラストロボットがマッピングした私の外観情報 |
参考書1 |
参考書2 |