Lidarの点群をどうやってつなぎ合わせるか?
こんにちは。矢口です。
Lidarの点群表示、非常に面白くて、どうにかしてこいつから3Dマップ生成を自動的に、テクスチャをくっつけて(カメラも一緒に動かして)やりたいなぁと思っているわけなんですが、画像は画像でPix4Dとかの3D復元が精度が良くて、正直あんまりLidarもいらないんじゃないのかなぁ…なんて、若干気弱になっているところです。
とは言っても、災害救助とかになると、夜間飛行とか目視外飛行とか、色々なポイントで恐らくLidarは確実に必要になるんだろう、と思うので、現在点群データから、どうやって高速に3D Stitchingをしようかを検討中です。
ちなみに、3Dの点群を扱うのには非常に便利なライブラリーとしてPoint Cloud Library(PCL)がありまして、こちらに3D Feature Pointの生成等のアルゴリズムを実装したものがゴロゴロ転がっているわけです。しかも、論文未掲載っぽいものまで…。
現在、試しに実装してみたりしているわけですが、若干の疑問点が。Lidarを縦にして、貼り合わせる時に、結局Lidarの点の筋は双曲線的に広がるわけで、そんなに稠密ではないし、ドローンの小さい移動分は間になってしまうので、さて、果たしてそういうのってメッシュからサブサンプリングしてうまく張り合わせできるのかなぁ…と。
個人的にやってみたいと思うのは、Harris3D/5D辺りなんですが、これ、Corner Pointなんですよね…。Cornerがうまく取れるような環境(もしくは推定できるようなもの)なら、それで一度合わせてから、サブサンプリングされた領域で、後はRANSAC的に張り合わせて…になるんでしょうが。自然物、特に木々を捉えてしまったら、果たしてどうなるのか…。