
LiDAR와 멀티스펙트럼 카메라를 장착한 드론이 농업 피해를 정량화합니다
정밀 농업이 첨단 기술을 탑재한 드론을 사용하여 도약합니다. 이러한 시스템은 LiDAR 센서와 멀티스펙트럼 카메라를 결합하여 농장을 비행하며 포괄적인 데이터를 수집합니다. 주요 목표는 해충으로 인한 피해를 정확하게 매핑하여 주관적인 인식을 객관적이고 실행 가능한 메트릭으로 변환하는 것입니다 🚁.
정확한 3D 모델을 위한 데이터 캡처 및 처리
드론의 비행은 두 가지 주요 데이터 세트를 생성합니다: 지형과 식생의 3D 포인트 클라우드, 그리고 가시 스펙트럼을 넘어 정보를 포착하는 멀티스펙트럼 이미지. 이러한 데이터를 유용한 모델로 변환하기 위해 전문 소프트웨어로 정보를 처리해야 합니다.
디지털 모델 생성 워크플로우:- 포토그램메트리 및 정렬: Agisoft Metashape 또는 DroneDeploy와 같은 프로그램이 중첩된 사진을 정렬하고 공간에서 각 포인트의 정확한 위치를 계산합니다.
- 3D 재구성: 소프트웨어가 장면을 재구성하여 밀도 있는 지리 참조 포인트 클라우드 또는 각 식물과 농장 지형을 충실하게 표현하는 텍스처화된 메쉬를 생성합니다.
- 기하학적 기반: 이 상세한 3D 모델은 모든 후속 정량 분석의 정확하고 신뢰할 수 있는 기하학적 기반으로 사용됩니다.
3D 모델의 정확성은 필수적입니다; 해충의 피해를 측정하는 디지털 지도입니다.
식물 건강 분석 및 손실된 바이오매스 계산
진정한 가치는 3D 기하학과 스펙트럼 데이터를 결합할 때 나타납니다. 모델 위에 멀티스펙트럼 카메라에서 파생된 인덱스를 중첩하고 ENVI와 같은 도구로 분석합니다.
통합 데이터 분석:- 식생 지수: NDVI(정규화 차이 식생 지수)와 같은 지수를 계산하여 인간의 눈으로는 인지할 수 없는 식물의 스트레스 수준과 잎사귀 손상 영역을 드러냅니다.
- 체적 측정: LiDAR 모델이 식생의 높이와 부피 데이터를 제공합니다. 이러한 측정을 건강한 작물의 기준값과 비교하여 바이오매스 감소를 추정할 수 있습니다.
- 피해의 객관적 계산: 두 데이터의 통합으로 정확한 작물 손실 비율, 예를 들어 47.3%,을 얻을 수 있으며 "절반 정도"와 같은 모호한 추정 대신 정확합니다.
인식에서 정량화된 정밀도로
이 방법론은 농업 위험 관리를 변화시킵니다. 농부는 더 이상 사건이 맹렬한 공격인지 가벼운 쪼아먹기인지 논쟁할 필요가 없습니다. 대신 3D 모델과 스펙트럼 분석에서 파생된 정확한 수치가 포함된 기술 보고서를 제시할 수 있습니다. 이는 시각적 검사를 정량화 가능하고 반복 가능한 데이터로 대체하여 보험 평가와 같은 프로세스를 가속화하고 객관화합니다. 기술이 관찰을 측정으로 변환합니다 🔍.