2020年4月17日金曜日

2020.04.17 人間の視覚とアルファ1ブラストロボットの視覚システムの違い

まず、その前に大きな問題があるのが、ブラスト処理がなぜ技術系学問の体系をとれないのか?国内外含めて技術系学問として取り入れているところはほとんどない。
その大きな原因の一つがISO8501-1によるSa1~3までに代表される
「目視判定」(*SSPCでは、顕微鏡は使うなとまで書いてある。)
であることは、なんとなく気付いている。
しかし、じゃあなんで「目視判定」はだめなのか?

人間は見たものに関する情報を瞬時に解析する能力が高すぎるのである。

アルファ1ブラストロボットの実験を行っていると気が付いたのだが
人間と比較して2眼式でレーザー距離測定も行いコンピュータで解析しても対象物への情報の少なさが痛いほど伝わってくる。

どういう事かを簡単に説明すると、人間がブラスト処理をして処理後の判定を行うとすると、瞬時に対象物の色合いを経験から判定してしまうのである。具体的言えば、良くブラストされているものは漠然とした「白銀」であると記憶されている。だから、細かく、白い研削材でブラストすればSa2.5に簡単になると思うのであり、判定する側も、事実そう判定するのである。ゲシュタルト的という事だ。
ISO8501-1では、2/3以上除錆されていればSa2,95%以上除錆でSa2.5、100%でSa3だが、この色合いや材質を見越して人間が得意とする判定能力をスウエーデンで60年前に処理規格として採用してしまったもんだから、AIがある現在でも中々、変えられない。ゲシュタルト的なのは、AIが苦手である例として模様のような下手くそな字を書いて横にヒントとなることを示す下手くそな絵が描いてあるとき正確に3番目の文字を当てるようなことを言う。空間をアルファ1ブラストロボットに認識させブラストさせタスクをジェネレートさせるには、ある程度情報を限定させるしかない。アルファ1ブラストロボットの設計者はフレーム問題を避けるために2方法を採用することにしたようである。したようであるというのは、設計者の論文を読んでいる最中であるのと、この1年間色々試した経験から思ったのである。まず、方法1として簡単な方法として対象物の図面データをアルファ1ブラストロボットに覚えさせて同じような線と角度を持った物を拾い出し直線的なブラスト処理タスクを自己生成させる。対象位置の限定はオペレーターである人間に任せる。このようにしてフレーム問題を解決した。ブラスト処理される現実の対象物はほとんどが線と角度で構成されている人工物であるからである。
次に方法2として対象物のデータがない場合のタスクジェネレートだが、これは、その場で得た情報に対してすべてをブラスト処理を線で構成させて軌跡として処理した。
面積がある程度確定している面に関しては方法1と同様に処理するアルゴリズムが採用されている。その境界は300mm×300mmくらいと思われる。

次回に続く

対象物のデータがある場合、その位置がずれていてもアルファ1ブラストロボットが見た情報と比較して位置を補正する

アルファ1ブラストロボットがマッピングした私の外観情報
参考書1

参考書2

2020年4月7日火曜日

2020.04.07 対象物を両脇に設置した場合の認識確認(フレーム問題の検証)

この手のロボットにおけるフレーム問題を検証するにあたり、ブラスト処理における適応を繰り返し確認検証している。

実験として、アルファ1ブラストロボットを中心にして両脇に黒板を被ブラスト処理面であることを伝える事により如何に位置を把握し自力でブラスト計画ができるか?を試みた。
大きさの違う黒板を2枚並行に置いたのち、次に適当に一枚の黒板を斜めに向けても把握しブラスト計画が開始できるか?も試みた。
結果は規則正しく、しかし人間的に途中でブラストホースのもつれを修正しながらやりとた。タスクジェネレート時間は1分くらいなのでアルファ1ブラストロボットにおいては簡単な部類であるが、人間でも一般プログラム型ロボットでも適当に置かれた板に規則正しくブラストするのは困難である。アルファ1ブラストロボットの能力が生かされる状況である。
高さも面積も違う黒板を、適当に平行に置き両方にブラストする実験

黒板を適当に斜めに向けて追従するか?の実験








厚地鉄工㈱関東アスコン 〒102-0073東京都千代田区九段北1丁目7番3号九段岡澤ビル3階 TEL:03-6261-6530 FAX:03-3221-6833

厚地鉄工㈱関東アスコン 〒102-0073東京都千代田区九段北1丁目7番3号九段岡澤ビル3階 TEL:03-6261-6530 FAX:03-3221-6833
国際規格のブラスト工法