植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット

開放特許情報番号
L2007006646
開放特許情報登録日
2007/11/2
最新更新日
2012/7/27

基本情報

出願番号 特願2006-352905
出願日 2006/12/27
出願人 国立大学法人宇都宮大学
公開番号 特開2007-200309
公開日 2007/8/9
登録番号 特許第4961555号
特許権者 国立大学法人宇都宮大学
発明の名称 植物の対象部分の位置特定方法とその方法による対象部分の位置特定装置及びその装置を用いた作業用ロボット
技術分野 電気・電子、機械・加工、生活・文化
機能 機械・部品の製造、制御・ソフトウェア
適用製品 植物の対象部分の位置特定装置及びその装置を用いた作業用ロボット
目的 カメラで撮影したモニタ画面に表れる果実などの周辺を含むカラー画像の中から、成熟した果実などを光環境の変化する自然環境下においてもその特有の色で見分けられ、収穫すべき果実などの存在と位置を正確に認識し、植物の果実などの作業対象部分の位置特定が容易にできるようにする方法と、その方法を実施するための装置を提供し、さらにその装置で特定された果実などを摘み取る作業などの各種作業が自動的に行える作業用ロボットを提供する。
効果 撮影したモニタ画面内での色の合致箇所から収穫したい成熟した果実などの対象部分の存在とその存在する位置が自動的に確認できるようになる。この色の照合に使用される前記色彩空間データと前記色彩パターンデータは、明度などの明暗に関する色要素が排除されたデータなので、昼夜や天候などの自然環境の変化や照明条件の変動などにより光の量(明暗)に変化があってもその変化が色のデータに反映されず、この結果、屋外などのように作業場所の明暗変化の激しい光環境にあっても殆ど影響されない安定した色のデータを得ることが可能になる。
技術概要
植物の対象部分の位置特定方法は、対象部分の全色系のカラー画像から特徴的な色を固有色として選択する固有色選択工程と、その固有色の色データを明暗に関する色要素を除いた二つの色要素から色彩空間データを得る色要素2元化処理工程と、その色彩空間データをモニタ画面に表示してさらに特徴的な少数の色を選別してこれを色彩パターンデータとして記憶させる色彩パターン登録工程と、実作業において、作業すべき対象部分が存在する周辺をデジタルカメラで撮影し、その撮影した全色系のデジタルカラー画像から、明暗に関する色要素を除いた二つの色要素の色彩空間データを得る作業域色要素2元化処理工程と、その色彩空間データと記憶されている色彩パターンデータとを照合し、作業域の画像中に両者が合致した部分のみを位置表示させる対象部分位置表示工程とで構成される。図1はデータ処理工程を示す工程図である。図2はイチゴのデータ処理工程を示す工程図である。図3はピーマンとキュウリのデータ処理工程を示す工程図である。
イメージ図
実施実績 【無】   
許諾実績 【無】   
特許権譲渡 【否】
特許権実施許諾 【可】

アピール情報

導入メリット 【改善】
改善効果1 明るい晴れの日や暗い雨の日等の天候や、栽培室内の照明と外の天候条件によって明るさが時事刻々変化するような植物の生育する作業場所においても、また、実が葉の裏に隠れて暗がりとなってしまうころがある作業場合においても、そのような周囲の光の影響を受けて果実の色の明度が変化することがあっても、果実などの対象部分を葉などがある周囲から区別することができ、その位置を確実に特定することが可能となる。
改善効果2 この対象部分の色による存在の位置確認は、従来行われている形状に基づく存在の確認とは位置情報のデータ量が格段に少なく、また、特に植物では葉、実、茎、根などの各部分での固有色が種によって決まっていることから、葉、実、茎など成長による形状変化の多きい部分のデータよりも、変化の少なく実などの部分においてそれぞれ個別の特徴を有する固有色による存在の確認のほうが誤認の発生が起こり難い利点がある。
改善効果3 デジタルカメラで画像を取り込みながら、植物の対象部分の位置を特定しつつコンピュータに組み込んだ駆動用プログラムによりマニュピレ−タを自動的に制御し、作業ハンドの位置を移動させてその作業ハンドによる各種作業を、ボディを移動させながら素早く実行することが可能となった。 その際、前記作業ハンドは、果実の摘み取り、花の受粉、摘花などの作業に応じた形状、構造及び機能を備えたものを実装したり、作業に適した構造の装置に交換することで、それらの各種作業が行えるようになる。

登録者情報

登録者名称 宇都宮大学

その他の情報

関連特許
国内 【無】
国外 【無】   
Copyright © 2017 INPIT