2020年7月14日火曜日

2020.07.14 ブラスト処理後の表面粗さの予測 追記07.19



***********************************
ブラスト処理後の表面粗さ、Ra,Rzjis についてだが非常に規則的に生成されるため予測は簡単である。統計的に処理すれば結果はその通りになる。
母集団をテストピースの粗さとして150mm各のプレートを100枚ほどランダムに対象物に設置し、Rzjisを1枚当たり5か所測定、100枚あるので500か所抽出したサンプルを基に標準偏差、平均から確率密度関数からグラフ化すれば次回からはその条件での再設定は必要ない。都度確認のためのデータ取は必要だが、おかしな結果が出た場合は研削材、コンプレッサー、ノズルの他に作業者がブラストしてる場合はその作業者自体を検査対象としとけばよい。我々の場合はすでに人間がブラストすることは原則的に禁止してるので自律型ロボットのシステム検査をエラーコードから確認する。
中心極限定理により正規分布となるため多少の問題があっても1σ範囲内に収まることが確認できた。すなわちブラスト処理で言うところの狙い値は中高グレードで1σ範囲内低グレードで2σ範囲、指定なしであれば3σとなる。


追記

測定データを見ていると、乱数のようで規則性があることがグラフ化することで判明した。なので逆の手順を追えばいいわけである。かといって簡単ではないが。

下記の件を考えているうちに 非整数ブラウン運動であるからプロフィルのディテイルは乱数すなわち正規乱数に従えば予測できることが解った。
 正規分布に従うことが解った。



Hはハースト指数で0.5以外を本来は定めるのだが拡散も収束も平板であれば必要ないはずである。ハースト数の要素(例えば研削材の特性)になるものをピックアップすればかなりいい感じに予測できる。

やっと、世界中で適当にブラストしていてもレンジ2σくらいは問題ないことが判明した。証明するのは難儀だが私の頭の中では整理できた。
やはり、ブラスト処理はAIに機械学習の必要はなく、最適な行動予測だけで処理が成り立つことが解った。




すべての表面粗さの測定データを放り込んで正規分布分析した


2020年7月10日金曜日

2020.07.10 ブラストパターンの解析と予測

今年に入ってからは新型コロナの影響で海外へ全く行けない状態が続き、比較的暇な状態が続いている。英語はどうせ海外に行けないのでモチベーションが上がらないのでやる気が出ない。かれこれ半年近く暇なので、毎日数学の再勉強をやっていた。弊社に入ってからは30年も数学というものを使わなくなったのでリハビリにかなり時間がかかっている。自分の古い大学の数学の本を見ると微分方程式に〇が付けられているが解けないものが多くて落胆する。それでも少しずつ元に戻ってきたのと最近の機械学習に使われる関数や統計も勉強していると面白いことを発見した。
正規分布(せいきぶんぷ) - Welcome to Office Miyajima Web Site!
ブラストの動作シミュレーションをアルファ1で行うことは、現在可能なのだがブラストの噴射パターンまではシミュレーションができていない。

正規分布(ガウス)の式で簡単に表現できるのはいいのだがこの式では、ブラストの影響要素を加味する事が難しい。さらに時間軸も加味したい。となると、現代の機械学習のON・OFFのスイッチに相当するシグモイド関数を利用させてもらうことにした方がいいと思った。
これのいいところはガウス型なので最大値があり、微分しやすくaに重み関数をつけやすい。なのでaにブラスト条件を多数叩き込んで合成させることができそう・・・なんとなく。
角度の影響を完全に取り込むのは難しいのでまず閾値をこれで設定して考えればいいと思う。







2020年6月4日木曜日

2020.06.04 Primsense Carmine 1.08 深度センサーを用いた3Dスキャナーの合成画像の歪みの問題について


とにかく、アルファ1ブラストロボットはスペックなどに関する説明書が全くない自律型ロボットなので正直ムカつくが、それと新型コロナウイルスで自宅に自粛生活を強いられたせいで、受験生のように微分方程式まで戻って再勉強している。概要がようやく見えてきた。内蔵されているPrimsense Carmine 1.08という形式を聞き出すだけでもかなり苦労した。だいたいそもそも、2004年に書かれた自分の大学に提出した英文200ページの論文しか渡さないというのは?向こうとしては、「車やパソコンを購入したら使うだけだからこれも君たちは何も知らなくていいんだ、黙って我々にお金を払ってタスクデータを買いなさい」と言うスタンスなのだが、それは普及している完成モデルでの話でありこんなプロトタイプな装置に適合しない。ブラスト処理みたいなウルトラ極小産業業界では私のような技術系サムライを仲間に入れとけばもっと拡散するのに、彼らの戦略は間違えている。いずれにせよ、日本ではいずれもっといいものが出てくるだろうからこの装置は私の30年間のブラスト処理上の未解決な事象を解明する道具として理解する必要があるのでやるだけだ。



ワンショツトのデータを取り込む場合は問題ない。

深層イメージとずれる場合はCADデータで自動補正させる。
現実と仮想空間のズレや情報提供の差異を無くすことの役割を深度センサーが行い安全にブラスト処理する計画タスクを自動生成することができる。SLAMデータからベイズ推定アルゴリズムによりマニュピレータ軌跡を計画し実行タスクを生成する、計算コストカットのためLM法を採用しているが私がベンチマークしている中で気のせいかもしれないがパターン化された面積が増えている。以前は補正用CADデータなしの時は無数の接線で構成されたマニュピレータ軌跡でタスクがジェネレートされていたがバージョンアップ後は単純なパターンでブラスト処理軌跡が構成されている。自動タスクジェネレート時間も大幅に短縮されエラー発生はほぼなくなくなっているが。









2020年5月23日土曜日

2020.05.23 自律型からの計画創生後、シミュレーション上と実寸法の精度

この状態でレーザースポットの軌跡回転直径を測定
シミュレーションからの寸法

実測のメモ

位置を決めればかなり精度は出る。ブラスト処理においては全く問題ないレベル。

2020年5月9日土曜日

2020.05.09 SLAM:simultaneous localization and mappingの状況 ブラスト処理のトラッキング生成確認

フォークリフトを対象オブジェクトとしてアルファ1ブラストロボットにブラスト処理をさせるための処理計画を行わせる。屋外の場合、光度が高く逆光の方がSLAMの状況が良いことが分かったので最終的にブラストノズルのトラッキングがどうなるかの確認をした。
複雑なフォークリフトの内側を短時間にどのようにブラスト処理のトラッキング処理の動画。ベイズ推論を使いマッピングモデルを線形化しブラストノズルの動作を実現させている。ブラストノズルの照射距離は約700-800mm前後であり高圧1.0MpaでブラストノズルSN-156-750おいてSa3は、確実に達成できる。





フォークリフトの爪を伸ばした状態でビジュアルサーチングさせた。




アルファ1ブラストロボットから1500mmの地点側面からの構図
SLAM ブラスト対象を限定する枠

得られたSLAMからブラストトラッキングを生成、タスクをジェネレートした。

2020年5月6日水曜日

2020.05.06 アルファ1ブラストロボットの「ある点について疑問」

この10日間ほど毎日少しだけだが、アルファ1ブラストロボットのアルゴリズムについて述べた論文を読んでいた。2ページ翻訳を進む都度に見慣れない現在風の数式と理論が繰り出してくるのでまだ、半年以上かかりそうだが、「ある点について疑問」が生じた。

まず、これほど苦労し、論理の塊の自律型ロボットの使い道をなぜ?「ブラスト処理」に適応させたのか?
世界に自律型ロボット:多くは自走行型だが使い道がそれほど高度な使い方をしているものがない。メインとしては農業ハウスの収穫ロボットが代表だ。とてもじゃないが、現段階ではコストがペイするとは思えない使い方だ。ボストンダイナミクスのような軍事用荷役動物型ロボットのように1台数億円規模なら話は別だが。
当然、製作者本人(スティーブ)及びセーバー社にも聞いたことがあるが、納得がいかない回答だった。
論文にも一切、ブラスト処理に関する内容は記載されていない。つまり、開発時にはブラスト処理目的ではなかったのだ。開発のバックグランドに農業用採取ロボットに影響されたことや、工業用プログラミング型ロボットの汎用性から将来の自律型ロボットへの有用性が漠然と記載されていたが現実に何に対して開発するつもりだったのか?は記載されていない。そう考えると、製作者の具体的用途目標もなくここまで論理を具体化したモチベーションには感服する。科学者の要素が強いエンジニアである。

特にベイズ論で推定した経路をLM法の組込みにより装置のロバスト性を上げているところは、エンジニアらしい。目標対象物に対して、カメラで見て最終的に形状確認と距離確認を行い、自由にもしくは決められた距離と速度で「模写書き」をする。その際に障害物をよけて、シミュレーションまで行う。スティーブ的にはシミュレーションは付録だろう。
かくして、そのスティーブの分身のようなアルファ1ブラストロボットを手に入れて研究しているわけだが、「ある点について疑問」とは何かと言えば、ブラスト処理に対する作業難易度である。現在自律型ロボットのできる作業は人間作業レベルでいえばかなり低い作業である。例えば農業収穫作業の場合は、熟しているハウス内でイチゴなりキュウリをハサミで切断し箱に入れる。いちご狩りにファームに子供が幼稚園の頃に行ったがおいしそうに収穫して食べていた。簡単なので楽しめる。他の例でいえば自動車の自動運転である。これも、決められた道を安全運転でルール通り行えば誰でもできる。難易度は低である。実走行で難易度を上げているのはほかの自動車を運転している「人間」であって人間の方がルールに従わず誤動作するから事故が起きるのであって難しく感じるのである。運転技術的には人間でなくてもできるレベルである、自動車は機械であるからである。そうなると、このスティーブのロボットを最初にブラスト作業へ提案した人物はブラスト作業自体の本質を見抜いていると言える。私はブラスト処理を熟知している側の人間だから逆にロボットなどにさせる認識は以前はなかった。なぜか?純物理学的に研削材粒子速度の影響等に概念が集中しすぎて作業者であろうがプログラムロボットであろうが関係なかったからである。むしろ、人間がブラスト作業してもらう方が弊社としては利益が上がる。
作業者側もこの簡単な誰でもできる作業で高品質な下地処理を得られるのだから文句はない。文句があるのはあまりにも単調で退屈で尚且つ防護服等での作業が疲れるからである。ブラスト処理自体、塗装や溶接、溶射、旋盤加工のように人間と自動機械がいい勝負になることは絶対に起きない。ブラスト処理に関しての下地を形成する際には人間では再現性は一切ない。なので以前記したことだが、ISO8501-1のような人間に都合のいい優れた処理規格を作ってしまったわけである。
最終的な結論としては、「ある点について疑問」は、
このロボットは、後付けでブラスト作業用に適応させたため現在の人間のブラスト作業自体がお手本となっている。ロバスト性も高くするため「ブラスト処理はこれでいいだろう」がにじみ出ている。そんなところまで、現実的なのである。
以前、論文を読む前に「もっとブラスト処理対するパラメータが必要ではないか?」と質問したが「それでいい結果を得ている」と興味がない返事をスティーブから得ている。
ベイズ推論を採用しマニュピレータ自体を先行計画し実カメラで計画の補正を行いタスク計画するのは良いのだが、「いや、ここは少し徹底的にリブラストした方がいいだろ!」が形状から推測するアルゴリズムが組み込まれていないのである。単純化して自動タスクジェネレートする方向性が強い設定なのである。


















2020年4月17日金曜日

2020.04.17 人間の視覚とアルファ1ブラストロボットの視覚システムの違い

まず、その前に大きな問題があるのが、ブラスト処理がなぜ技術系学問の体系をとれないのか?国内外含めて技術系学問として取り入れているところはほとんどない。
その大きな原因の一つがISO8501-1によるSa1~3までに代表される
「目視判定」(*SSPCでは、顕微鏡は使うなとまで書いてある。)
であることは、なんとなく気付いている。
しかし、じゃあなんで「目視判定」はだめなのか?

人間は見たものに関する情報を瞬時に解析する能力が高すぎるのである。

アルファ1ブラストロボットの実験を行っていると気が付いたのだが
人間と比較して2眼式でレーザー距離測定も行いコンピュータで解析しても対象物への情報の少なさが痛いほど伝わってくる。

どういう事かを簡単に説明すると、人間がブラスト処理をして処理後の判定を行うとすると、瞬時に対象物の色合いを経験から判定してしまうのである。具体的言えば、良くブラストされているものは漠然とした「白銀」であると記憶されている。だから、細かく、白い研削材でブラストすればSa2.5に簡単になると思うのであり、判定する側も、事実そう判定するのである。ゲシュタルト的という事だ。
ISO8501-1では、2/3以上除錆されていればSa2,95%以上除錆でSa2.5、100%でSa3だが、この色合いや材質を見越して人間が得意とする判定能力をスウエーデンで60年前に処理規格として採用してしまったもんだから、AIがある現在でも中々、変えられない。ゲシュタルト的なのは、AIが苦手である例として模様のような下手くそな字を書いて横にヒントとなることを示す下手くそな絵が描いてあるとき正確に3番目の文字を当てるようなことを言う。空間をアルファ1ブラストロボットに認識させブラストさせタスクをジェネレートさせるには、ある程度情報を限定させるしかない。アルファ1ブラストロボットの設計者はフレーム問題を避けるために2方法を採用することにしたようである。したようであるというのは、設計者の論文を読んでいる最中であるのと、この1年間色々試した経験から思ったのである。まず、方法1として簡単な方法として対象物の図面データをアルファ1ブラストロボットに覚えさせて同じような線と角度を持った物を拾い出し直線的なブラスト処理タスクを自己生成させる。対象位置の限定はオペレーターである人間に任せる。このようにしてフレーム問題を解決した。ブラスト処理される現実の対象物はほとんどが線と角度で構成されている人工物であるからである。
次に方法2として対象物のデータがない場合のタスクジェネレートだが、これは、その場で得た情報に対してすべてをブラスト処理を線で構成させて軌跡として処理した。
面積がある程度確定している面に関しては方法1と同様に処理するアルゴリズムが採用されている。その境界は300mm×300mmくらいと思われる。

次回に続く

対象物のデータがある場合、その位置がずれていてもアルファ1ブラストロボットが見た情報と比較して位置を補正する

アルファ1ブラストロボットがマッピングした私の外観情報
参考書1

参考書2

2020年4月7日火曜日

2020.04.07 対象物を両脇に設置した場合の認識確認(フレーム問題の検証)

この手のロボットにおけるフレーム問題を検証するにあたり、ブラスト処理における適応を繰り返し確認検証している。

実験として、アルファ1ブラストロボットを中心にして両脇に黒板を被ブラスト処理面であることを伝える事により如何に位置を把握し自力でブラスト計画ができるか?を試みた。
大きさの違う黒板を2枚並行に置いたのち、次に適当に一枚の黒板を斜めに向けても把握しブラスト計画が開始できるか?も試みた。
結果は規則正しく、しかし人間的に途中でブラストホースのもつれを修正しながらやりとた。タスクジェネレート時間は1分くらいなのでアルファ1ブラストロボットにおいては簡単な部類であるが、人間でも一般プログラム型ロボットでも適当に置かれた板に規則正しくブラストするのは困難である。アルファ1ブラストロボットの能力が生かされる状況である。
高さも面積も違う黒板を、適当に平行に置き両方にブラストする実験

黒板を適当に斜めに向けて追従するか?の実験








2020年3月31日火曜日

2020.3.31 平板を地面に対して水平に置いた場合の判断

平板を試験的にブラスト処理を行う場合、一般ロボット的にブラスト処理したい場合がある。2度打ちしたくない場合。アルファ1ブラストロボットの場合、こちらが指定することが効率が悪いと判断すると最も効率がいい方へと動作プログラムをジェネレートしてしまうため限界線を把握しとかなければならない。そのための実験の一例。
この黒板に対しては動作プログラムは当然我々の方では用意していない。
速度とピッチ幅だけを入力(動作中にも入力できる。)
黒板の位置はメジャーで設置後測ったが適当である。黒板自体も意図的に少し斜め向いている。3Dカメラにより黒板位置は補正されてのスタートだ。
この程度なら、ビジュアルサーチングは30秒、ジェネレートは2分以内だ。
黒板の位置を遠ざけると、自己判断でブラスト処理を行わない適正判断を下している。
例えば、この単純なブラスト処理を人間にさせると正確には2枚目からは複製はできない。到底1000枚複製は無理であろう。単純ロボットならできる。しかし、板の位置や大きさが変わった瞬間から大げさなプログラム変更を余儀なくされる。
ブラスト処理に関しては位置精度などプラスマイナス1-5mm程度などは問題にならない。
ブラスト処理とはそんなものであることを認識していないと、とてつもなく無駄なことをする羽目になる。



自己判断で遠すぎる

適正位置であると判断した


2020年3月26日木曜日

2020.03.26 アルファ1ブラストロボットに任せた場合と実験用で強制指示をかけた場合




↑はアルファ1ブラストロボットに通過ポイントを指定して自由に効率よくブラストするように考えさせた場合。
↑は強制的に一ラインずつ速度を変更して真っすぐブラストさせようとした場合。


ある目標物をブラストしなさいと言う命令には非常に効率よく正確に目的を達成するのだが、ブラストの基礎実験のようにこのラインを真っ直ぐに何本かブラストしなさいと言った、単純な命令に対しては不得意な傾向が以前からある。
究めて、人間のブラスト作業者に近いアルゴリズムが組まれているようだ。
なので、対象物がはっきりしていてとにかく、手順はいいから全面無駄なく最短時間でブラストしなさいという命令にはよく従う。





2020年3月25日水曜日

2020.03.25 新バージョンのビジュアルスキャンからのブラストの精度

2回目のブラストの確認だが、ビジュアルスキャンからの精度の確認を簡易的に行った。
昨年、シドニーへアルファ1ブラストロボットを里帰りさせてからの初めての本ブラストである。まずは小物から再確認を始める。
ビジュアルスキャンは、人間の作業者と同じく、まず目で対象物を確認し脳で手順を考え、実行するプロセスをとる。なのでこの機能に一つでも問題ある場合は成立しない。
要するに健康体でなければならない。普通のロボットの場合は「作業の計画」を自分で考えることはしないので多少機器にに問題があっても動くのだが、アルファ1ブラストロボットはそうはいかない。セレクトモード的には普通のロボットモードもあるのだがそれでは意味がないので使わない。あくまでも、対人間にこだわる。

結果は当然のことながら精度は上がっていた。

特に、位置と形状把握の精度が上がり、極めてできるだけ無駄な動きをせず徹底的に自分で勝手にブラスト計画を立てて始め、終了した。

これで次回からAIブラストの試験を開始できる。

下記の写真は配管部品φ200 45度エルボの屋外暴露数年経っているテストピースをSN156-550 1.0Mpa (元圧1.2Mpa) ネオブラスト G1で動作含めて6分の計画を自己生成した結果。
特筆すべきは、架台のH鋼が無駄にブラストされていない事、45度エルボの底下部、及び内面はブラストされているが架台のH鋼はほぼブラストされていない事である。
ブラスト中は粉塵量が多くカメラでも全く見えない状況である。







厚地鉄工㈱関東アスコン 〒102-0073東京都千代田区九段北1丁目7番3号九段岡澤ビル3階 TEL:03-6261-6530 FAX:03-3221-6833

厚地鉄工㈱関東アスコン 〒102-0073東京都千代田区九段北1丁目7番3号九段岡澤ビル3階 TEL:03-6261-6530 FAX:03-3221-6833
国際規格のブラスト工法