WO2009156542A1 - Procedimiento automático para seccionar imágenes remotas y caracterizar indicadores agronómicos y ambientales en las mismas - Google Patents

Procedimiento automático para seccionar imágenes remotas y caracterizar indicadores agronómicos y ambientales en las mismas Download PDF

Info

Publication number
WO2009156542A1
WO2009156542A1 PCT/ES2009/070247 ES2009070247W WO2009156542A1 WO 2009156542 A1 WO2009156542 A1 WO 2009156542A1 ES 2009070247 W ES2009070247 W ES 2009070247W WO 2009156542 A1 WO2009156542 A1 WO 2009156542A1
Authority
WO
WIPO (PCT)
Prior art keywords
micro
images
image
plot
plots
Prior art date
Application number
PCT/ES2009/070247
Other languages
English (en)
French (fr)
Inventor
Luis GARCÍA TORRES
Francisca LÓPEZ GRANADOS
Montserrat JURADO EXPÓSITO
José Manuel PEÑA BARRAGÁN
Juan José CABALLERO NOVELDA
Original Assignee
Consejo Superior De Investigaciones Científicas (Csic)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Consejo Superior De Investigaciones Científicas (Csic) filed Critical Consejo Superior De Investigaciones Científicas (Csic)
Publication of WO2009156542A1 publication Critical patent/WO2009156542A1/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C21/00Methods of fertilising, sowing or planting
    • A01C21/007Determining fertilization requirements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Definitions

  • First sector AGRICULTURE, ENVIRONMENT and TELEDETECTION.
  • Second sector AGRICULTURAL, ENVIRONMENTAL, and TELEDETECTION TECHNICAL ASSISTANCE COMPANIES, and in particular those specialized in PRECISION AGRICULTURE, whether public (Public Administrations) or private.
  • the second sector refers to companies that using remote images as a source of primary information plan activities or operations of farms in which precision technologies are used, in order to achieve the economic and environmental benefits of the same, such as the application located and varying doses of fertilizers and phytosanitary, making such applications not extensively and uniformly throughout the entire agricultural plot area, but adapted to the needs of each small plot or "micro-plot", whose sectioning, agro-environmental characterization and geographical mapping of agricultural treatments is the object of this patent.
  • Remote sensing is a technology that consists of capturing information about objects or accidents that occur on the earth's surface or in the atmosphere without coming into physical contact with them.
  • NDVI Normalised Difference Vegetation Index
  • a high photosynthetic activity that is to say a healthy and vigorous vegetation, implies a high NDVI value due to a high reflectivity in the near infrared band and a high energy absorption in the red band. Therefore, NVDI, calculated with measurements on land (Kanemasu 1990), satellite images (Anderson et al., 1993) or photographs areas (Denison et al., 1996) has a high correlation with the final crop production.
  • Precision agriculture determines the spatial variability of biotic factors such as the density of weeds and pathogens, and of abiotic factors such as the content of nutrients or water in the soil, in order to support the application to varying doses of fertilizers, phytosanitary, irrigation water, among other variables ("inputs"), adjusting the doses of these to the needs of each small area or "micro-plot" (Blackmore, 1996; Kropff et al. 1997). It therefore entails a reduction in the dose of inputs compared to traditional agriculture, in which the inputs are applied at a uniform dose throughout the plot.
  • the environmental and economic advantages of precision agriculture are widely accepted (Timmermann et al., 2003).
  • ENVI® the Environment for Visualizing Images
  • ENVI® the Environment for Visualizing Images
  • the supporting data matrices of each image are made up of rows and columns of spatial units or pixels.
  • the pixel dimension matches the area of its spatial resolution. For each spectral band, each pixel is defined by a digital value.
  • ENVI combines through interactive functions the data files of the electromagnetic spectrum bands captured by the sensor / s.
  • the data of each band is archived independently and they are accessed individually or simultaneously through functions. If multiple files are opened, data from different types of bands can be processed and processed as if they belonged to the same group or image;
  • the ENVI user has many possibilities for interactive ENVI analysis, displaying each of these windows; d) allows various forms of image overlap in different windows for spatial and spectral comparative study, which is especially useful in multiband and multispectral images; e) provides various interactive tools to visualize and analyze vectors and attributes GIS (Geographic Information Systems), among others the increase in the range of the data matrix ("contrast stretching") and the two-dimensional scatter plots ("two- dimensional scatter plots "); f) provides an extensive list of functions / algorithms for image processing easily and immediately, such as transformations, filters, classifications, registration and geometric corrections, and spectral analysis.
  • GIS Geographic Information Systems
  • IDL Interactive Data Language, IDL®
  • IDL Interactive Data Language
  • IDL® Interactive Data Language
  • the flexibility of ENVI is due to greatly to the versatility of IDL.
  • the installation of IDL is therefore required, either in a basic version ("runtime version of IDL") or in a full version (“full version of IDL”) that allows to include the own functions / command / functions of the Username.
  • ENVI users can use all ENVI functions, but not write their routines or commands ("custom routines").
  • the ENVI and IDL manuals contain extensive information about them ("Using IDL and the IDL Reference Guide and IDL Help").
  • the IDLIAS.1 / CLUAS® program (“Clustering Assessmenf) was developed as an" add-on "/" plug-in "of ENVI (Garc ⁇ a-Torres, L. et al. 2006) and was registered in the Registry of Ia Intellectual property (N 0 200,699,900,440,900).
  • cluas consists of grouping and integration of the digital values of adjacent pixels according to a range of digital values (VD, maximum VD max and minimum VD m n), a defined spatial dimensions (maximum number of columns C ma ⁇ and rows F max ) and a convergence / grouping of very close formed clusters (equidistant only 1 or 2 pixels, "neighborhood pixels 4 or 8").
  • the CLUAS program operates systematically by first processing the rows, from top (row 1) down (row F max , with F max being the maximum number of rows of the image), integrating the values of the adjacent pixels in the pixel located on the right of the corresponding row, then similarly , processes or integrates contiguous pixels per colu mnas, from left (column 1) to right (column C max , with C max being the maximum number of columns in the image). CLUAS also integrates the clusters formed in the vicinity, whose equidist center only 1 or 2 pixels ("neighborhood pixels").
  • the IDL program is systematically by first processing the rows, from top (row 1) down (row F max , with F max being the maximum number of rows of the image), integrating the values of the adjacent pixels in the pixel located on the right of the corresponding row, then similarly , processes or integrates contiguous pixels per colu mnas, from left (column 1) to right (column C max , with C max being the maximum number
  • IAS.1 / CLUAS generates a report with the results in ASCII format, which contains the following parameters of the image processed as a whole: a) Total number of pixels of the image (NTP); b) Total number of groupings (NTAG); c) NTAG / NTP ratio; d) Integration of digital values cumulative (IVDA); e) Average accumulated digital value (VDAM); and for each resulting grouping: f) Geographic coordinates of its barycenter; g) Number of pixels in the group (NPAG); h) Integrated digital value of the group pixels (VDAG); i) VDAG / NPAG ratio.
  • the report is generated with tabs for the separation of columns and in this way make it compatible with EXCEL.
  • Remote images cover large areas of land. Thus, those taken from airplanes at a flight height of about 1500 m normally cover about 300 or 400 ha; and each scenario of images of high spatial resolution satellites, such as those of the Quick Bird, covers about 70 or 80 km 2 . Any of these images normally contains a very high number of natural spaces, agricultural and forestry farms, and other land uses of very variable surfaces, for example from 0.5 or 2 ha to 40 or 60 ha, which can be individualized. This situation makes necessary the existence of a procedure that allows sectioning said images.
  • micro-plots usually its size is several hundreds of square meters (m 2 ).
  • m 2 square meters
  • the procedure object of the present invention which includes the implementation of the SARI computer program, allows the remote image object of study to be sectioned into micro-images or rectangular micro-plots of flexible dimensions, its length and width being multiple of that of the pixel of The image
  • it is required to analyze / process each of the micro-images corresponding to each micro-plot in order to interpret the agronomic or environmental variable or variables under study.
  • remote sensing techniques are very suitable to characterize the spatial variability on which precision agriculture is based, for the following reasons: a) the sensor used (satellite or aerial photography) records what is in the field (objectivity) , b) the procedure of analysis of the image obtained is fast once the method has been tuned, c) they allow to work sequentially, d) large areas of land are managed and field sampling is largely avoided; and e) enable the planning of the image taking at the appropriate time and the delay of its analysis, if necessary, without losing information.
  • the procedure object of the present invention implements the SARI® program in the analysis process of the selected remote image, and automatically provides its sectioning into micro images corresponding to individual micro-plots, also providing automatically individualized valuable information for each micro-plot, which Based on previous studies, it allows decisions on agricultural operations such as the application of fertilizers or phytosanitary products.
  • the present invention allows solid foundations to be laid for the development of precision agriculture in any agricultural plot based on aerial images. DESCRIPTION OF THE INVENTION
  • the object of the present invention is an automatic procedure for the sectioning of remote images in micro images corresponding to micro-plots of land and for the quantitative obtaining of agronomic and environmental indicators thereof, which comprises the following steps: a) Taking the remote image (satellite image, hyperspectral, multispectral or panchromatic aerial photography, with high spatial resolution) b) Digitization and georeferencing c) Primary analysis of the image taken in a) that allows the obtaining of simple images formed by a single band or vegetation index . Likewise, the digital border values (VDF) of each land use are defined.
  • VDF digital border values
  • the parameters of clusters and formation of micro-images / micro-plots defined in the previous points c, d and e are introduced in this software.
  • the program processes them and results in the indicators Agronomic and environmental for each micro-plot, as well as treatment maps.
  • the percentage of infested culture of a certain weed species, pathogenic or nutritional deficit / deficiency can be mentioned, this is with a nutrient content below a certain level, which allows estimating the decrease in potential production or harvest and the percentage of area on which the application of phytosanitary products and / or fertilizers is recommended or not.
  • the method of the invention provides for each micro-plot its geographic coordinates, integrated digital values or equivalent potential productivity, number and% of pixels with digital values between the defined range and classification of the micro-plot in relation to these parameters.
  • This procedure is likely to be used in any type of land because the plots of land to be processed can support any plant species, natural, agricultural or forest space, have any orographic or topographic specificity, without limitation of their surface.
  • Another object of the present invention is the use of the procedure described above for obtaining agronomic and environmental indicators of each micro-plot, as well as treatment or prescription maps, of fertilizers, phytosanitary products or any other input.
  • the process object of the present invention can be used in precision agriculture programs.
  • Figure 2. Sectioning by the SARI® program of the image shown in Figure 1.b. in micro-plots of 50 m x 20 m and prescription map according to their classification. Blank, weak Avena sterilis infestations 1,% pixels ⁇ 20,,); in gray, Class 2,% pix 20-40%; in black, classes 3 and 4,> 40% infested pixels.
  • the plot was transformed to the NDVI index;
  • the nitrogen deficit zone corresponds to digital values less than 0.275;
  • the fertilizer application criteria in Microparcelas was:% of nitrogen deficit pixels> 30%.
  • the micro-plots in which fertilizer is applied are shown in black.
  • Figure 4. a) General view of a simple image of a pea plot (Pisum sativum L.) of approximately 0.7 ha partially parasitized by Orobanche crenate Forsk. b) View of the same plot in which the Orobanche crenata stands have been isolated; c) Map of prescription or localized treatments resulting from the implementation of SARI, a) The image was transformed using the NDVI index; The gray and black areas correspond to pea cultivation that is not parasitized and if parasitized, respectively.
  • the size of the micro-plots was 19 x 10 m; and the phytosanitary application criterion was for plots with a percentage of infested pixels greater than 30%.
  • the object of the present invention is a process with which it is possible to optimally section remote images, which cover large areas of land, in micro-images corresponding to small-sized plots (micro-plots), and at the same time characterize and quantify agronomic and environmental indicators of these, based on remote sensing and the processing of the corresponding images by means of the SARI® Software (Splitting and Assessment of Remote Images, hereinafter SARI) software.
  • Said process of the invention comprises the following steps: a) Taking remote satellite images or hyperspectral, multispectral or panchromatic aerial photography, with variable spatial resolution, of one or several meters, or even lower.
  • SARI® software (Splitting and Assessment of Remote Images) has been developed as an "add-or ⁇ 'l" plug-in "of ENVI.
  • SARI carries out various original tasks for the interpretation of remote images, such as: a ) Define regions / zones (ROIs) in the geometric center of the formed groups; b) Visualize them in the original image; c) Determine quantitative characteristics of each of the ROIs / micro images / micro-plots designed; d) Matching the size of the ROIs formed and that of the clusters, the original image is divided into rectangular micro images; e) The definition of their size is flexible and their quantitative characterization is expressed in an ASCII data file, which is also handled flexibly.
  • SARI Software can be used for quantitative interpretation and visualization of the groups formed, for the definition and visualization of regions of arbitrary interest. designed entity, and for the segmentation of large remote images (high number of pixels) into small images, several tens, hundreds or thousands of pixels (“micro-images”) and individualized and automatic evaluation thereof.
  • SARI defines the grouping of pixels through the following parameters: a) Range of digital values (DV): minimum (Min. DV) and maximum (Max. DV); b) Distance of joining or convergence of nearby clusters (Merging dist): a number of pixels or distance between clusters is defined in a discretionary / variable / flexible manner, below which the nearby clusters join / converge; c) Minimum group size (Min. Pixels), below which a particular grouping is not considered; and d) Maximum group size (Clustering Size, Width, Height).
  • SARI defines the geometric center of the groups formed according to the dimensions that are introduced in the interface: number of columns ("Width") and number of rows ("Heighf); and also defines the classification criteria of the ROIs: a) % of pixels with VD ⁇ O over the total pixels of each ROI; and / or b)% of integrated digital values (VDAG) over a maximum (VDAG max ).
  • each microimage SARI quantifies, once the adequate vegetation indices have been implemented, the total number of pixels, number of pixels whose digital values are between the range established and the integral thereof. These parameters will have a different meaning according to the content of the image in question and must also be interpreted based on previous field work ("true-terrain").
  • the SARI computer program determines for each microimage / micro-plot the% of pixels or integral of digital values, parameters that can be related to the degree of the biotic variable being studied, for example the nutrient content / density of weed infestations .
  • the method of the present invention discriminates and quantifies by means of remote sensing the land uses that are defined in simple images of a single band or vegetative index, section the image in micro-images / micro-plots, and estimates for each of them, among other indicators, the following: its geographic center, its geographic coordinates, surface or number of integrated pixels (NP), digital values integrated in each grouping (VDAG) and VDGA / NP or potential productivity, automatic classification of each micro-plot according to the percentage of pixels and / or integrated digital values thereof.
  • This quantitative information SARI® Ia generates in any ASCII format (Excel, Txt., Etc.), characterizing each micro-plot individually and the agricultural image / plot processed as a whole, calculating among other indicators the surface or the percentage of areas affected by various factors biotics such as the spatial distribution of weed species, incidence of a disease or of an insect-pest, or abiotic, such as nutrient content / fertility level.
  • the procedure object of this invention serves as the basis for the design and implementation of precision agriculture programs / operations in agricultural plots, configuring the map of treatments of inputs / agronomic variables such as the application of fertilizers and phytosanitary.
  • the images include an agricultural plot with a different degree of growth attributable to different nutrient content and / or weed clusters / stands in the crop, they can determine the micro-plots of the crop of diverse nutrient content and therefore susceptible to receiving higher doses of fertilizer; or alternatively, microplains infested with weeds and therefore susceptible to being treated with herbicidal phytosanitary products can be determined.
  • SARI® can be used to contribute to precision agriculture, which requires detailed information on the inequalities of a land attributable to biotic and abiotic factors, and also to determine the potential productivity of certain areas of a plot for comparative purposes. or between agricultural plots. It has application in Agriculture and Environment, and more specifically in Agricultural or Environmental Technical Assistance Companies. The procedure object of this patent will allow these companies to plan fertilizer and phytosanitary application strategies with precision, that is in small plots / micro-plots, previously estimating the potential productivity and agro-environmental indicators of these.
  • the image of the original plot has been sectioned into micro-images / micro-plots of 50 m x 20 m. and 25 m x 10 m, the results of which are indicated in Tables 1 and 2, respectively.
  • SARI provides various agro-environmental indices of each micro-plot, among others the following: Number of clusters, geographic coordinates, number of grouped pixels (NPAG); integrated digital values (VDAG) ;, average digital value per pixel (VDAM), and number and% pixels with VD ⁇ O. And based on this last index or the VDAG index, classify the micro-plots in classes (from 1 to 4).
  • Example 2 Image processing of a corn plot with nitrogen deficit areas.
  • the prescription or treatment map located by the implementation in SARI is indicated in Figure 3b.
  • the criteria for applying fertilizer in micro-plots was:% of nitrogen deficit pixels> 30%.
  • Table 3 and figures 4a) and 4b) are those corresponding to this example.
  • Example 3 Image processing of a pea crop partially attacked by the parasitic species Orobanche crenata.
  • the digital border values for the pea were 0.62 to 0.74, and for Orobanche 0.21 to 0.62.
  • NTAG 18000 NTAG / NTP- 1
  • VDAM 0.3 IVDA '5087.1 1 Abbreviations: NTP, total number of pixels of the processed image; AG, groupings; xey, geographic coordinates; NPAG, number of grouped pixels; VDAG, integrated digital values; NTAG, total number of pixels in the set; IVDA, integrated digital values; VDAM, average digital value per pixel No. and% pixels VD ⁇ O; Class: classification according to% pixels VD ⁇ O. Table 2. Quantitative results of the sectioning of the image corresponding to the wheat plot shown in Figure 1.b., in micro-images of 25 mx 10 m and classification of these by the SARI® program.

Abstract

El objeto de la presente invención es un procedimiento que permite seccionar/dividir automáticamente imágenes remotas en otras rectangulares de tamaño reducido (microimágenes/ microparcelas), y obtener indicadores agronómicos y ambientales en cada una de ellas y en el conjunto de la parcela. Se basa en el procesado de imágenes remotas de alta resolución espacial mediante el programa informático SARI® y genera para cada microparcela indicadores tales como su centro geográfico, superficie, productividad potencial y presencia de factores bióticos tales como rodales de especies de malas hierbas, y/o abióticos, tales como niveles de nutrientes/ fertilidad. Por tanto tiene aplicación en Agricultura, Medioambiente, y Teledetección, y en particular en Agricultura de Precisión.

Description

PROCEDIMIENTO AUTOMÁTICO PARA SECCIONAR IMÁGENES REMOTAS Y CARACTERIZAR INDICADORES AGRONÓMICOS Y AMBIENTALES EN LAS MISMAS
SECTOR DE LA TÉCNICA
Primer sector: AGRICULTURA, MEDIOAMBIENTE y TELEDETECCIÓN. Segundo sector EMPRESAS DE ASISTENCIA TÉCNICA AGRARIA, MEDIOAMBIENTAL, y de TELEDETECCIÓN, y en particular las especializadas en AGRICULTURA DE PRECISIÓN, sean públicas (Administraciones Públicas) o privadas. El segundo sector se refiere a empresas que utilizando imágenes remotas como fuente de información primaria planifiquen actividades o operaciones de explotaciones agrarias en las que se utilicen tecnologías de precisión, con objeto de alcanzar los beneficios económicos y medioambientales propios de Ia misma, tales como Ia aplicación localizada y a dosis variable de fertilizantes y fitosanitarios, efectuando dichas aplicaciones no de forma extensiva y uniforme en toda Ia superficie de parcela agrícola, sino adaptada a las necesidades de cada pequeña parcela o "microparcela", cuyo seccionamiento, caracterización agro-ambiental y mapeo geográfico de tratamientos agrarios es el objeto de esta patente.
ESTADO DE LA TÉCNICA
Teledetección, conceptos básicos
La teledetección es una tecnología que consiste en captar información de los objetos o accidentes que ocurren en Ia superficie terrestre o en Ia atmósfera sin entrar en contacto físico con ellos.
Comprende Ia medida y el registro de Ia energía electromagnética reflejada o emitida por éstos, y conlleva Ia interpretación y relación de esta información con Ia naturaleza y propiedades de éstos. La captura de Ia energía reflejada se lleva a cabo mediante sensores remotos instalados en plataformas aerospaciales (satélites y aviones) que registran Ia energía reflejada correspondiente a diversas frecuencias del espectro electromagnético, que van desde las ondas de radio de baja frecuencia pasando por el espectro visible (bandas azul, verde y roja) hasta los rayos X, gamma e incluso cósmicos. Cada cuerpo o cubierta terrestre presenta una forma peculiar de reflejar o emitir energía que se conoce como signatura o firma espectral (Chuvieco, 2002). En las últimas décadas las tecnologías en las que se basa Ia teledetección y sus aplicaciones se han desarrollado enormemente. Hoy día Ia teledetección es una herramienta muy importante en muy diversas áreas tales como meteorología, oceanografía, climatología, ciencias militares, ciencias de Ia tierra, y protección civil, entre otras.
Aplicaciones de Ia teledetección a Ia agricultura
En teledetección es esencial conocer el comportamiento o signatura espectral de cada una de las diversas superficies o usos de suelo a las diferentes longitudes de onda. La energía reflejada por Ia vegetación y el suelo desnudo en las longitudes de onda roja e infrarroja varía muy considerablemente (Cloutis et al., 1996). Cultivos densos y sanos se caracterizan por una elevada absorción de energía/ radiación roja y una alta reflectancia de Ia radiación infrarroja. Con frecuencia es conveniente combinar estas medidas (y otras en otras bandas) en un solo índice que resalte Ia sensibilidad a las variaciones en el cultivo. Dichas combinaciones son conocidas como índices de vegetación. Hay un gran número de ellos, tantos como operaciones matemáticas se estime oportuno definir. Sus ventajas son: 1 ) aumentar las diferencias relativas entre los valores digitales que caracterizan cada uso del suelo, 2) reducir el número de datos obtenidos a un solo valor característico, 3) obtener valores adimensionales que permiten su comparación espacial y temporal y, 4) en ocasiones, eliminar efectos indeseados de iluminación, orografía, etc. (Jackson y Huete, 1991 ). Uno de los más conocidos es el NDVI ("Normalised Difference Vegetation Index"). Una actividad fotosintética alta, es decir una vegetación sana y vigorosa, implica un alto valor de NDVI debido a una alta reflectividad en Ia banda del infrarrojo cercano y una alta absorción de energía en Ia banda roja. Por tanto, NVDI, calculado con medidas en tierra (Kanemasu 1990), imágenes de satélite (Anderson et al., 1993) o fotografías áreas (Denison et al., 1996) presenta una alta correlación con Ia producción final del cultivo.
Los trabajos sobre clasificación de los usos del suelo mediante imágenes de satélite de resolución espacial media / baja o fotografías aéreas utilizando índices de vegetación se pueden considerar como clásicos en teledetección y se han llevado a cabo en áreas muy diversas: costeras, parques naturales, masas forestales, zonas agrícolas, entre otras muchas. También se han llevado a cabo trabajos para detectar de forma sistemática las anomalías en el desarrollo de los cultivos de regadío en Aragón (López-Lozano y Casterad, 2003), y monitorizar el crecimiento de cultivos con datos biofísicos como altura de Ia planta, el área foliar (LAI) y biomasa (Calera et al., 2001 ; 2002), o para estimar el efecto a largo plazo de los cambios en los usos de suelo sobre Ia evapotranspiración de los cultivos utilizando imágenes Landsat 5 TM y Landsat 7 ETM+ de 1982 a 2000 (Lanjeri et al., 2001 ; 2002) en Ia zona de Castilla-La Mancha. También se están produciendo avances muy significativos en Ia teledetección de malas hierbas en cultivos con sensores aerotransportados multiespectrales (Goel et al., 2002; Schmidt & Skidmore, 2003; Koger et al. 2004; Smith & Blackshaw, 2003; Girma et al. 2005; Felton et al. (2002), Radhakrishnan et al. (2002) y Thorp & Tian (2004) e incluso se ha desarrollado una metodología para mapear infestaciones tardías de malas hierbas en cultivos mediante imágenes remotas de alta resolución espacial (López-Granados et al. 2006; Peña- Barragán et al., 2007). Para llevar a cabo dicho trabajos es necesario que existan diferencias en las firmas espectrales entre el cultivo y las especies de malezas en determinados momentos del ciclo fenológico (Everitt et al. 1994; Everitt & Deloach 1990; Lass & Callihan 1997; Peña-Barragán et al. 2006).
Existen diversos trabajos cuyo objetivo es caracterizar grandes áreas de vegetación/ bosques mediante imágenes remotas de baja resolución espacial, de 30 a 100 metros de pixel, o incluso superior (Kokaly et al. 2003; Schmidt and Skidmore. 2003). Peña-Barragán et al. (2005) ha desarrollado una metodología para caracterizar Ia cubierta vegetal en olivar mediante fotografías aéreas de baja resolución espacial. García-Torres et al. (2007 y 2008) han desarrollado un procedimiento para Ia caracterización automática de indicadores agronómicos y ambientales de plantaciones de árboles en imágenes remotas de alta resolución espacial mediante el subprograma informático "Clustering Assessment IDL.IAS.1®, CLUAS)".
Agricultura de precisión
La agricultura de precisión determina Ia variabilidad espacial de factores bióticos tales como Ia densidad de malas hierbas y patógenos, y de factores abióticos tales como el contenido de nutrientes o agua del suelo, a fin de fundamentar Ia aplicación a dosis variables de fertilizantes, fitosanitarios, agua de riego, entre otras variables ("inputs"), ajustando las dosis de éstos a las necesidades de cada pequeña área o "microparcela" (Blackmore, 1996; Kropff et al. 1997). Conlleva pues una reducción de las dosis de inputs en comparación con Ia agricultura tradicional, en Ia que los inputs se aplican a dosis uniforme en toda Ia parcela. Las ventajas medioambientales y económicas de Ia agricultura de precisión son ampliamente aceptadas (Timmermann et al., 2003). Así por ejemplo, Ia distribución espacial de las malas hierbas no es uniforme, sino que en cada parcela forman agrupamientos o rodales (Jurado-Expósito et al. 2003). Sin embargo, en Ia agricultura convencional los fitosanitarios herbicidas se aplican normalmente en cada parcela a una dosis única. Para reducir Ia cantidad de fitosanitarios herbicida aplicado, o sea para aplicar herbicida solo donde ocurren rodales de malas hierbas es para Io que es necesario desarrollar las técnicas de precisión. Éstas consisten en determinar Ia densidad de Ia mala hierba, el contenido de nutrientes, o de otro inputs, en cada microparcela, así como su efecto económico en Ia reducción del cultivo ("competition/ economic threshold"); de esta forma se aplica el fitosanitario herbicida o el fertilizante sólo en las microparcelas que realmente Io necesitan por estar infestadas de malas hierbas o tener un contenido de nutrientes bajo(Heisel et al. 1996; Jurado-Expósito et al. 2003; Barroso et al. 2004). Mediante las técnicas de agricultura de precisión se consigue reducir el volumen de fitosanitarios o fertilizantes aplicados, el tiempo de aplicación de éstos y el no aplicarlos donde no es necesario (Medlin et al. 2000).
Programas informáticos de manejo de imágenes remotas ENVI®: Actualmente existen diversos programas informáticos
("software") comercializados para el procesamiento e interpretación de las imágenes, entre otros ILWIS®, ERDAS® y ENVI®. En particular, el programa informático ENVI ("the Environment for Visualizing Images", ENVI®) es un potente sistema de proceso de imágenes remotas ampliamente usado en muy diversos países del mundo y en muy diversas disciplinas científicas. Permite un manejo muy diverso de las matrices de datos captadas por los sensores remotes y su visualización de forma coherente y compresiva. ENVI ha sido desarrollado y está registrado por Research Systems International (RSI) Global Services (http://www.rsinc.com/). Las matrices de datos soporte de cada imagen se componen de filas y columnas de unidades espaciales ó píxeles. La dimensión del pixel coincide con el área de su resolución espacial. Para cada banda espectral, cada pixel está definido por un valor digital. Entre las ventajas de ENVI cabe destacar las siguientes: a) combina a través de funciones interactivas los archivos de datos de las bandas del espectro electromagnético captadas por el sensor/es. En cada archivo, los datos de cada banda se archivan de forma independiente y se tiene acceso a los mismos de forma individualizada o simultanea mediante funciones. Si se abren varios archivos, se pueden procesar los datos de diversos tipos de bandas se pueden procesar como si pertenecieran a un mismo grupo o imagen; b) ordena los datos de cada banda en ventanas de 8- ó 24- bit; c) desarrolla diversas ventanas o pantallas (interfaz, "display") conocidas por el nombre de Image, Zoom, y Scroll, pudiendo ajustarse el tamaño de cada una de ellas. El usuario de ENVI dispone de muchas posibilidades de análisis interactivo ENVI, visualizando cada una de dichas ventanas; d) permite diversas formas de solapamiento de imágenes en diversas ventanas para su estudio comparativo espacial y espectral, Io que es especialmente útil en imágenes multibandas y multiespectrales; e) proporciona diversos herramientas interactivas para visualizar y analizar vectores y atributos GIS (Sistemas de Información Geográfica), entre otras el aumento del rango de Ia matriz de datos ("contrast stretching") y los gráficos de dispersión en dos dimensiones ("two-dimensional scatter plots"); f) proporciona una extensa lista de funciones/ algoritmos para el procesamiento de imágenes de forma fácil e inmediata, tales como transformaciones, filtros, clasificaciones, registro y correcciones geométricas, y análisis espectral.
IDL: ENVI está escrito en IDL (Interactive Data Language, IDL®), un lenguaje de programación informática potente y sistematizado que permite un proceso de imágenes integrado. La flexibilidad de ENVI se debe en gran medida a Ia versatilidad de IDL. Para el funcionamiento de ENVI se requiere pues Ia instalación de IDL, bien en una versión básica ("runtime versión of IDL") o en una versión completa ("full versión of IDL") que permite incluir las propias funciones/ comando/ funciones del usuario. Los usuarios de ENVI pueden usar todas las funciones de ENVI, pero no escribir sus rutinas o comandos ("custom routines"). Los manuales de ENVI y IDL contienen extensa información sobre los mismos {"Using IDL and the IDL Reference Guide and IDL Help").
El programa IDLIAS.1/ CLUAS® ("Clustering Assessmenf) fue desarrollado como un "add-on"/ "plug-in" de ENVI (García-Torres, L. et al. 2006) y fue registrado en el Registro de Ia Propiedad Intelectual (N0 200699900440900). CLUAS consiste en Ia agrupación e integración de los valores digitales de píxeles contiguos según un rango de valores digitales (VD, máximo VDmax y mínimo VDm¡n), unas dimensiones espaciales definidas, (número máximo de columnas Cmaχ y de filas Fmax) y una convergencia/ aunamiento de agrupamientos formados muy próximos (equidistantes solo 1 ó 2 píxeles, "neighbouring pixels 4 ó 8"). El programa CLUAS opera sistemáticamente procesando en primer lugar las filas, de arriba (fila 1 ) hacia abajo (fila Fmax, siendo Fmax el número máximo de filas de Ia imagen), integrando los valores de los píxeles contiguos en el pixel situado en Ia derecha de Ia fila correspondiente. Luego, de forma similar, procesa o integra los píxeles contiguos por columnas, de izquierda (columna 1 ) a derecha (columna Cmax, siendo Cmax el número máximo de columnas de Ia imagen). Además CLUAS integra los agrupamientos formados en Ia proximidad, cuyo centro equidista solo 1 ó 2 píxeles ("neighbouring pixels"). El programa IDL. IAS.1/ CLUAS genera un informe con los resultados en formato ASCII, que contiene los siguientes parámetros de Ia imagen procesada en su conjunto: a) Numero total de píxeles de Ia imagen (NTP); b) Numero total de agrupamientos (NTAG); c) Ratio NTAG/NTP; d) Integración de valores digitales acumulados (IVDA); e) Valor digital acumulado medio (VDAM); y para cada agrupamiento resultante: f) Coordenadas geográficas de su baricentro; g) Numero de píxeles del grupo (NPAG); h) Valor digital integrado de los píxeles del grupo (VDAG); i) Ratio VDAG/NPAG. El informe se genera con tabuladores para Ia separación de columnas y de esta forma hacer que sea compatible con EXCEL.
Las imágenes remotas abarcan grandes superficies de terreno. Así, las tomadas desde aviones a una altura de vuelo de unos 1500 m normalmente cubren unas 300 ó 400 ha; y cada escenario de imágenes de satélites de alta resolución espacial, tales como las del Quick Bird, abarca unos 70 u 80 km2. Cualquiera de estas imágenes contiene normalmente un número muy elevado de espacios naturales, explotaciones agrarias y forestales, y otros usos del suelo de superficies muy variables, por ejemplo desde 0.5 ó 2 ha a 40 ó 60 ha, susceptibles de ser individualizados. Esta situación hace necesario Ia existencia de un procedimiento que permita seccionar dichas imágenes.
Igualmente, Ia aplicación de las técnicas de agricultura de precisión en una parcela agraria cualquiera que sea su tamaño requiere seccionar dicha parcela en subparcelas o parcelas elementales de mucho menor tamaño (en adelante llamadas microparcelas), habitualmente su tamaño es de varios centenares de metros cuadrados (m2). Así, por ejemplo considerando microparcelas de 20 m x 10 m en una parcela de 8 ha (80.000, m2) resultarán 400 microparcelas.
El procedimiento objeto de Ia presente invención, que incluye Ia implementación del programa informático SARI, permite seccionar Ia imagen remota objeto de estudio en micro-imágenes o micro-parcelas rectangulares de dimensiones flexibles, pudiendo ser su longitud y anchura múltiplo de Ia del pixel de Ia imagen. Además, en las técnicas de agricultura de precisión, se requiere analizar/ procesar cada una de las micro-imágenes correspondientes a cada microparcela a fin de interpretar Ia variable o variables agronómica o medioambiental objeto de estudio.
Conviene recordar que las técnicas de teledetección son muy adecuadas para caracterizar Ia variabilidad espacial en Ia que se basa Ia agricultura de precisión, por los siguientes motivos: a) el sensor utilizado (satélite o fotografía aérea) registra Io que hay en campo (objetividad), b) el procedimiento de análisis de Ia imagen obtenida es rápido una vez se ha puesto el método a punto, c) permiten trabajar de forma secuencial, d) se maneja grandes extensiones de terreno y se evita en gran medida los muéstreos en campo; y e) posibilitan Ia planificación de Ia toma de imágenes en el momento oportuno y el retraso de su análisis, en caso de que fuese necesario, sin perder por ello información.
El procedimiento objeto de Ia presente invención implementa el programa SARI® en el proceso de análisis de Ia imagen remota seleccionada, y proporciona automáticamente su seccionamiento en microimágenes correspondientes a microparcelas individuales, proporcionando además de forma automática una valiosa información individualizada para cada microparcela, Io cual basándose en estudios previos permite tomar decisiones sobre operaciones agrícolas tales como Ia aplicación de fertilizantes o de fitosanitarios.
La presente invención permite sentar unas bases sólidas para el desarrollo de Ia agricultura de precisión en cualquier parcela agrícola basándose en imágenes aéreas. DESCRIPCIÓN DE LA INVENCIÓN
Descripción Breve
El objeto de Ia presente invención es un procedimiento automático para el seccionamiento de imágenes remotas en microimágenes correspondientes a microparcelas de terreno y para Ia obtención cuantitativa de indicadores agronómicos y ambientales de las mismas, que comprende las siguientes etapas: a) Toma de Ia imagen remota (imagen de satélite, fotografía aérea hiperespectral, multiespectral o pancromática, de alta resolución espacial) b) Digitalización y georreferenciación c) Análisis primario de Ia imagen tomada en a) que permite Ia obtención de imágenes simples formadas por una sola banda ó índice de vegetación. Asimismo se definen los valores digitales frontera (VDF) de cada uso de suelo. d) Definición de los parámetros del seccionamiento de Ia imagen, (por ejemplo el tamaño de las microparcelas) e) Definición, para un uso de suelo seleccionado, del criterio que permitirá Ia toma de decisión para cada microparcela de Ia aplicación o no de un determinado tratamiento. f) Activación del programa informático Splitting and Assessment of Remote Images (SARI®) en ENVI e implementación de Ia imagen simple obtenida en c) en SARI®. El programa informático SARI® ha sido desarrollado como un "add-on"/ "plug-in" de ENVI y está registrado en el Registro de Ia Propiedad Intelectual (García-Torres, L. et al. 2008; N0 Registro 200899900226820). Se introducen en este software los parámetros de agrupamientos y de formación de microimágenes/ microparcelas definidos en los puntos anteriores c, d y e. El programa los procesa y da como resultado los indicadores agronómicos y ambientales para cada microparcela, así como los mapas de tratamiento.
Entre los indicadores agronómicos y ambientales que proporciona el procedimiento objeto de Ia presente invención pueden citarse, entre otros, el porcentaje de cultivo infestado de una determinada especie de mala hierba, patógeno o con déficit/ carencia nutricional, esto es con un contenido de un nutriente por debajo de un determinado nivel, Io que permite estimar el descenso de Ia producción o cosecha potencial y el porcentaje de superficie en el que es recomendable o no Ia aplicación de fitosanitarios y/o fertilizantes. Asimismo, el procedimiento de Ia invención proporciona para cada micorparcela sus coordenadas geográficas, , valores digitales integrados o productividad potencial equivalente, número y % de píxeles con valores digitales entre el rango definido y clasificación de Ia microparcela en relación con estos parámetros.
Este procedimiento es susceptible de ser usado en cualquier tipo de terreno porque las parcelas de terreno a procesar pueden sustentar cualquier especie vegetal, espacio natural, agrícola o forestal, tener cualquier especificidad orográfica o topográfica, sin limitación de su superficie.
Otro objeto de Ia presente invención Io constituye Ia utilización del procedimiento descrito anteriormente para Ia obtención de indicadores agronómicos y ambientales de cada microparcela, así como de mapas de tratamiento o prescripción, de fertilizantes, fitosanitarios o cualquier otro input. Igualmente el procedimiento objeto de Ia presente invención puede ser utilizado en los programas de agricultura de precisión.
Descripción de ias figuras Figura 1. a) Vista de una imagen simple de una parcela de trigo de aproximadamente 2 ha con zonas infestadas de avena loca (Avena sterilis spp sterilis) y b) aislamiento de los rodales avena loca en dicha imagen. En a) Las zonas en negro o gris corresponden al cultivo de trigo sin infestaciones de esta mala hierba. La parcela ha sido extraída de una imagen multiespectral tomada sobre La Florida Il (Utrera, Sevilla; X = 242061 , Y = 4124807, pixel = 1 m; previamente transformada mediante el índice NDVI; los valores digitales frontera para el trigo fueron 0.0-0.55, y para Ia avena loca 0.56-0.79; en b) en blanco se destacan los rodales de avena loca con VD = 0.56-0.79 y las zonas de cultivo no infestadas se indican en negro (VD = 0).
Figura 2.- Seccionamiento por el programa SARI® de Ia imagen mostrada en Ia Figura 1.b. en microparcelas de 50 m x 20 m y mapa de prescripción según Ia clasificación de éstas. En blanco, infestaciones de Avena sterilis débiles cías 1 , % píxeles < 20, ,); en gris, Clase 2, %pix 20-40%; en negro, clases 3 y 4, > 40% píxeles infestados. Las características de procesamiento fueron: VDF 0-0.79, agrupamientos máximos de 50x20, sin convergencia en los agrupamientos (Merg. Dist.=0)y sin limitación de tamaño (Min. Pix. =1 ); clasificación según % de píxeles ≠O; las microparcelas en las que se aplica fertilizante se muestran en negro.
Figura 3.a) Vista general de una imagen simple de una parcela de maíz {Zea maíz L.) de aproximadamente 0.7 ha con zonas de crecimiento deficitario por bajo contenido de nitrógeno, b) Seccionamiento de Ia imagen en 25 microparcelas y mapa de prescripción o de tratamientos localizados, a) La imagen del satélite QB fue tomada el 05 de Mayo de 2005 en Ia zona Posadas (Córdoba; X = 314934, Y = 4184426, 1 pixel en multiespectral = 2.8 m). La parcela fue transformada al índice NDVI; Ia zona deficitaria de nitrógeno corresponde a valores digitales menores a 0.275; b) tamaño de las microparcelas 9 x 4 píxeles (25 m x 11.2 m = 282 m2); el criterio aplicación de fertilizante en microparcelas fue: % de píxeles deficitarios en Nitrógeno > 30%. Foto Zoom x 4; las microparcelas en las que se aplica fertilizante se muestran en negro.
Figura 4. a) Vista general de una imagen simple de una parcela de guisantes (Pisum sativum L.) de aproximadamente 0.7 ha parcialmente parasitada por Orobanche crenate Forsk. b) Vista de Ia misma parcela en Ia que se han aislado los rodales de Orobanche crenata; c) Mapa de prescripción o de tratamientos localizados resultante de Ia implementación de SARI, a) La imagen fue transformada mediante el índice NDVI; Las zonas en gris y negro corresponden al cultivo de guisante no parasitadas y si parasitadas, respectivamente. La parcela ha sido extraída de una imagen multiespectral tomada el 26.Abril.2006 en Ia campiña de Córdoba (X = 311807, Y = 4161192, pixel = 1 m; en Ia imagen b) los valores digitales frontera para el guisante fueron 0.62 a 0.74, y para Orobanche 0.21 a 0.62; en Ia imagen c). el tamaño de las microparcelas fue de 19 x 10 m; y el criterio de aplicación de fitosanitario fue de parcelas con un porcentaje de píxeles infestados superior al 30%.
Descripción detallada
El objeto de Ia presente invención es un procedimiento con el que es posible seccionar de forma óptima imágenes remotas, que abarcan grandes áreas de terreno, en microimágenes correspondientes a parcelas de dimensiones reducidas (microparcelas), y a Ia vez caracterizar y cuantificar indicadores agronómicos y ambientales de éstas, basándose en teledetección y en el procesado de las correspondientes imágenes mediante el programa informático SARI® Software (Splitting and Assessment of Remote Images, en adelante SARI). Dicho procedimiento de Ia invención comprende las siguientes etapas: a) Toma de imágenes remotas de satélite o fotografía aérea hiperespectral, multiespectral o pancromática, con variable resolución espacial, de uno ó varios metros, o incluso inferior,. b) Digitalización de imágenes en el caso de fotografías aéreas no digitalizadas, y georreferenciación de precisión, mediante toma de datos con GPS diferencial, de precisión submétrica, para asignar las coordenadas geográficas a imágenes aéreas desprovistas de coordenadas geográficas o con errores de georreferenciación inaceptables para agricultura de precisión, por ejemplo superiores 2 m. c) Análisis primario de Ia imagen que comprende a su vez las siguientes etapas: c.1 ) Recorte o aislamiento de Ia imagen correspondiente a Ia parcela objeto de estudio c.2) Transformación/ obtención de imágenes simples constituidas por una sola banda del espectro visible (azul: B, verde: G, rojo: R; e infrarrojo cercano NIR), pancromática, o cualquier otra banda en el caso de imágenes hiperespectrales, o de cualquier índice de vegetación que se defina mediante un algoritmo entre cualquiera de las bandas antes mencionadas, según las características de resolución espacial de Ia imagen en proceso y el objetivo del estudio en curso, c.3) Definición de regiones representativas ("regiones de interés) de los principales usos en Ia imagen simple o imágenes simples seleccionadas, que puede implicar el manejo de puntos "verdad-terreno" previamente tomados c.4) Definición de valores digitales frontera (VDF) de cada uso de suelo y clasificación/ separación de los mismos en Ia imagen simple seleccionada, mediante un proceso iterativo de selección de VDF contrastado estadísticamente, d) Definición de los parámetros del seccionamiento de Ia imagen, entre otros el tamaño de las microparcelas e) Definición, para un uso de suelo seleccionado, del criterio (% píxeles y valores digitales integrados)que motiva para cada microparcela Ia aplicación o no de un determinado tratamiento f) Activación del programa informático Splitting and Assessment of Remote Images (SARI®) en ENVI e implementación de Ia imagen simple obtenida en c), en SARI®, que comprende a su vez las siguientes etapas: f.1 ) Introducción en SARI® de los parámetros de agrupamientos y de formación de microimágenes/ microparcelas (ROIs) seleccionados en los puntos anteriores c.3, c.4, d y e f.2) Procesado y obtención por SARI® de los indicadores agronómicos y ambientales de acuerdo con los parámetros introducidos para cada microparcela y previamente indicados, así como de Ia obtención de los mapas de tratamiento. f.3) Estudio y visualización de Ia información generada automáticamente por SARI®
El programa informático SARI® (Splitting and Assessment of Remote Images) ha sido desarrollado como un "add-orí'l "plug-in" de ENVI. SARI lleva a cabo diversas tareas originales para Ia interpretación de imágenes remotas, tales como: a) Define regiones/ zonas (ROIs) en el centro geométrico de las agrupaciones conformadas; b) Las visualiza en Ia imagen original; c) Determina características cuantitativas de cada una de las ROIs/ microimágenes/ microparcelas diseñadas; d) Haciendo coincidir el tamaño de las ROIs formadas y el de los agrupamientos, Ia imagen original se secciona en microimágenes rectangulares; e) La definición del tamaño de éstas es flexible y su caracterización cuantitativa se expresa en un fichero de datos ASCII, que así mismo se maneja de forma flexible. En definitiva, SARI Software puede ser usado para Ia interpretación cuantitativa y visualización de los agrupamientos formados, para Ia definición y visualización de regiones de interés arbitrariamente diseñadas, y para Ia segmentación de las imágenes remotas de gran tamaño (elevado número de píxeles) en imágenes de tamaño reducido, varias decenas, centenares o miles de píxeles ("micro-imágenes") y evaluación individualizada y automática de las mismas.
SARI define los agrupamientos de píxeles a través de los siguientes parámetros: a) Rango de valores digitales (VD): mínimo (Min. VD) y máximo (Max. VD); b) Distancia de aunamiento o de convergencia de agrupamientos próximos (Merging dist): se define un número de píxeles o distancia entre agrupamientos de forma discrecional/ variable/ flexible, por debajo de Ia cual los agrupamientos próximos se aunan/ convergen; c) Tamaño mínimo de los agrupamientos (Min. Pixels), por debajo del cual no se considera un determinado agrupamiento; y d) Tamaño máximo de los agrupamientos (Clustering Size, Width, Height).
SARI define el centro geométrico de las agrupaciones formadas según las dimensiones que se introduzcan en Ia interfaz: número de columnas ("Width") y número de filas ("Heighf); y así mismo define los criterios de clasificación de las ROIs: a) % de píxeles con VD≠O sobre el total de píxeles de cada ROI; y/o b) % de valores digitales integrados (VDAG) sobre un máximo (VDAGmax ).
En cada microimagen SARI cuantifica, una vez implementados los adecuados índices de vegetación, el número total de píxeles, número de píxeles cuyos valores digitales estén comprendidos entre el rango que se establezca y Ia integral de los mismos. Estos parámetros tendrán un significado diferente según el contenido de Ia imagen de que se trate y deberán también interpretarse en base a trabajos de campo previos ("verdad-terreno"). En definitiva, el programa informático SARI determina para cada microimagen/ microparcela el % de píxeles o integral de valores digitales, parámetros susceptibles de ser relacionados con grado de Ia variable biótica objeto de estudio, por ejemplo el contenido de nutrientes/ densidad de infestaciones de maleza.
El procedimiento de Ia presente invención discrimina y cuantifica mediante teledetección los usos de suelo que se definan en imágenes simples de una sola banda o índice vegetativo, secciona Ia imagen en microimágenes/ microparcelas, y estima para cada una de ellas, entre otros indicadores, los siguientes: su centro geográfico, sus coordenadas geográficas, superficie o número de píxeles integrados (NP), valores digitales integrados en cada agrupamiento (VDAG) y VDGA/ NP ó productividad potencial, clasificación automática de cada microparcela según el porcentaje de píxeles y/o valores digitales integrados de las mismas.
Esta información cuantitativa SARI® Ia genera en cualquier formato ASCII (Excel, Txt., etc), caracterizando cada microparcela individualmente y Ia imagen/ parcela agrícola procesada en su conjunto, calculando entre otros indicadores Ia superficie o el porcentaje de zonas afectadas por diversos factores bióticos tales como Ia distribución espacial de especies de malas hierbas, incidencia de una enfermedad o de un insecto-plaga, o abióticos, tales como contenido de un nutriente/ nivel de fertilidad.
El procedimiento objeto de esta invención sirve de base para el diseño e implementación de programas/ operaciones de agricultura de precisión en parcelas agrarias, configurando el mapa de tratamientos de inputs/ variables agronómicas tales como Ia aplicación de fertilizantes y fitosanitarios. Así, por ejemplo, cuando las imágenes recogen una parcela agrícola con diverso grado de crecimiento atribuible a diverso contenido de nutrientes y/o a agrupaciones/ rodales de malas hierbas en el cultivo, se puedan determinar las microparcelas del cultivo de diverso contenido de nutrientes y por consiguiente susceptibles de recibir dosis mayores de fertilizante; o alternativamente se pueden determinar las microparcelas infestadas de malas hierbas y por consiguiente susceptibles de ser tratadas con fitosanitarios herbicidas.
SARI® se puede utilizar para contribuir a Ia agricultura precisión, que requiere se genere una información detallada de las desigualdades de un terreno atribuibles a factores bióticos y abióticos, y así mismo, para determinar a efectos comparativos Ia productividad potencial de determinadas zonas de una parcela o entre parcelas agrícolas. Tiene aplicación en Agricultura y Medioambiente, y más concretamente en Empresas de Asistencia Técnica Agraria o Medioambiental. El procedimiento objeto de esta patente permitirá que dichas empresas planifiquen las estrategias de aplicación de fertilizantes y fitosanitarios con precisión, esto es en pequeñas parcelas/ microparcelas, estimando previamente Ia productividad potencial e indicadores agroambientales de éstas.
Así, basándose en estudios agronómicos previos sobre el efecto del contenido de nutrientes y/o Ia competición de las malas hierbas en Ia cosecha/ producción del cultivo, se relacionarán Io parámetros anteriores con el tratamiento de fertilizantes o fitosanitarios herbicidas correspondientes, respectivamente, y se elaborará mapas de tratamientos fertilizantes y/ de fitosanitarios herbicidas de dosis variables ó de precisión para el conjunto de Ia parcela. EJEMPLOS DE LA REALIZACIÓN DE LA INVENCIÓN
Ejemplo 1. Procesamiento de imágenes de una parcela de trigo infestada de avena loca (Avena sterilis). Se ha procesado mediante el procedimiento de Ia invención imágenes correspondientes a una parcela de trigo (Figura 1a y 2b) infestada con rodales/ agregados de avena loca (Avena sterilis sp. sterilis) tomadas el 08 Mayo 2004 sobre Ia finca La Florida II, Utrera, Sevilla (X = 242061 , Y = 4124807), de 1 ,8 ha (18.000, m2). La imagen multiespectral original se transformó previamente al índice de vegetación NDVI.
Mediante el procedimiento de Ia invención se ha seccionado Ia imagen de Ia parcela original en microimágenes/ microparcelas de 50 m x 20 m. y 25 m x 10 m, cuyos resultados se indican en las Tablas 1 y 2, respectivamente. SARI proporciona diversos índices agro- medioambientales de cada microparcela, entre otros los siguientes: Número de agrupamientos, coordenadas geográficas, número de píxeles agrupados (NPAG); valores digitales integrados (VDAG);, valor digital medio por pixel (VDAM), y número y % píxeles con VD ≠O. Y basándose en este último índice o en el índice VDAG clasificación las microparcelas en clases (de 1 a 4).
El seccionamiento y Ia clasificación o mapa de prescripción de tratamientos de Ia imagen original obtenida por el procedimiento de Ia invención, se puede visualizar en imágenes (Figura 2) de acuerdo con el criterio definido
Ejemplo 2. Procesamiento de imágenes de una parcela de maíz con zonas deficitarias de nitrógeno.
Se han procesado imágenes correspondientes a una parcela de maíz (Zea mais L.) de aproximadamente 0.7 ha con zonas de crecimiento deficitario por bajo contenido de nitrógeno. Las imágenes procesadas se tomaron de una escena del satélite QUICK BIRD tomada el 05 de Mayo de 2005 en Ia zona Posadas (Córdoba; X = 314934, Y = 4184426, 1 pixel en multiespectral = 2.8 m). La imagen de Ia parcela fue transformada al índice NDVI; Ia zona deficitaria de nitrógeno corresponde a valores digitales menores a 0.275.
SARI se implemento para seccionar Ia imagen en 25 microparcelas de 9 x 4 píxeles (25 m x 11.2 m = 282 m2). El mapa de prescripción o de tratamientos localizados por Ia implementación en SARI se indica en Ia Figura 3b. El criterio de aplicación de fertilizante en microparcelas fue: % de píxeles deficitarios en Nitrógeno > 30%. La tabla 3 y las figuras 4a) y 4b) son las correspondientes a este ejemplo.
Ejemplo 3. Procesamiento de imágenes de un cultivo de guisante parcialmente atacado por Ia especie parásita Orobanche crenata.
Se ha procesado una imagen multiespectral correspondientes a una parcela guisantes (Pisum sativum L.) de aproximadamente 0.7 ha, parcialmente parasitada por Orobanche crenate Forsk. Dicha imagen fue tomada el 26.Abril.2006 en Ia campiña de Córdoba (X = 311807, Y = 4161192, pixel = 1 m; b). Se transformó mediante el índice NDVI; las zonas en gris-blanco pálido y negro corresponden al cultivo de guisante no parasitadas y si parasitadas, respectivamente (Figura 4). Los valores digitales frontera para el guisante fueron 0.62 a 0.74, y para Orobanche 0.21 a 0.62. La implementación de SARI seccionó Ia imagen original en microparcelas 19 m x 10 m y Ia clasificó con el criterio de aplicar fitosanitario sólo en microparcelas con un porcentaje de píxeles infestados superior al 30%. La tabla 4 y Ia Figura 4 muestran los resultados correspondientes a este ejemplo. Tabla 1. Resultados cuantitativos del seccionamiento de Ia imagen correspondiente a Ia parcela de trigo mostrada en Ia Figura 1.b., en microimágenes de 50 m x 20 m y clasificación de éstas por el programa SARI®. Las características de procesamiento fueron: VDF 0-0.79, agrupamientos máximos de 50x20, sin convergencia en los agrupamientos (Merg. Dist.=O) y sin limitación de tamaño (Min. Pix. =1 ; clasificación según % de píxeles ≠O.
NTP 18000
Pixeies VD ≠ü
AG X Y NPAG VDAG VDAG/NPAG No. % Ciaε
AG1 242086,45 4124799,75 1000 115,S 0,12 196 19,6 1
AG2 242136,33 4124803,25 1000 389,5 0,39 632 63,2 5
AG3 242186.2 4124606.75 1000 208.4 0.21 330 33 2
AG4 242236,09 4124810.25 1000 162 0/16 261 26,1 2
AG5 242285: 97 4124313,75 1000 168,8 0:17 268 26,8 2
AG6 242335,84 4124817,25 1000 43,6 0,04 74 7,4 1
AG7 242087,84 4124779.75 1000 423,4 0,42 692 69,2 5
AG8 242137,73 4124783,25 1000 570,2 0,57 895 89,5 5
AG9 242187,61 4124786,75 1000 357,5 0,36 581 58,1 5
AG10 242237,48 4124790,25 1000 280.3 0,28 452 45,2 5
AG11 242287,36 4124793,75 1000 366,3 0,37 575 57,5 5
AG12 242337,23 4124797,25 1000 253 0.25 410 41 5
AG13 242089,25 4124760 1000 521,7 0.52 841 84,1 5
AG14 242133,13 4124763,25 1000 392.2 0,39 641 54,1 5
AG15 242189 4124766,75 1000 122,1 0.12 201 20,1 2
AG16 242238,88 4124770,25 1000 192,6 0,19 316 31,6 2
AG17 242288,75 4124773,75 1000 273,7 0.27 446 44,6 5
AG18 242338,64 4124777,25 1000 245,9 0,25 40S 40,9 2
NTAG: 18000 NTAG/NTP- 1
VDAM 0,3 IVDA' 5087,1 1 Abreviaturas: NTP, número total de píxeles de Ia imagen procesada; AG, agrupamientos; x e y, coordenadas geográficas; NPAG, número de píxeles agrupados; VDAG, valores digitales integrados; NTAG, número total de píxeles del conjunto ; IVDA, valores digitales integrados; VDAM, valor digital medio por pixel No. y % píxeles VD ≠O; Class: clasificación según % píxeles VD ≠O. Tabla 2. Resultados cuantitativos del seccionamiento de Ia imagen correspondiente a Ia parcela de trigo mostrada en Ia Figura 1.b., en microimágenes de 25 m x 10 m y clasificación de éstas por el programa SARI®. Las características de procesamiento fueron: VDF 0-0.79, agrupamientos máximos de 25x10, sin convergencia en los agrupamientos (Merg. Dist.=O) y sin limitación de tamaño (Min. Pix. =1 ); clasificación según % de píxeles ≠O (se muestran solo datos de las 8 primeras y últimas microparcelas).
f^P* 180CC
AG NPAG VOAG VDAG^iPAG Ose
AG1 242073,64 4124804 250 2.3 5 ¿ AG2 242O9S.SS 41248G5J5 2.3 4 1 δ AG3 24212352 41248075 250 643 0.26 110 44 AG4 242146.45 4124S0S.25 250 53.7 SI 36,4 AG5 242173.39 2S0 46 δ 3.-2 AG6 24215833 41248125 250 0,02 δ 3.6 AG? 242223.27 41248M.25 G AG8 242246,2 4124816 250 41 2 0.16 65
AGSb 2421 /S.88 4124/61 2bO 32.1 0.13 52 20.S
AG66 24238181 4124762.75 258 20.5 35 14
A.GS7 242226.75 4124764.5 2SQ 25.3 17,6 AG68 242251 ,7 4124766,25 250 77,1 0,31 123 49,2 5
AG69 242276,64 4124768 250 107,8 0,43 170 68 5
AG70 242301,58 4124769,75 250 70,3 0,28 117 46,8 5
AG71 242326,52 4124771,5 250 103,2 0,41 171 68,4 5
AG72 242351,45 4124773,25 250 79,8 0,32 131 52,4 5
NTAG' 1800Q NTAG/NTP' 1
VDAM' 0,3 IVDA' 5087,1
'Abreviaturas' ver tabla 1
Tabla 3. Resultados cuantitativos del seccionamiento de Ia imagen de maíz de 0.7 ha (Figura 3a) en microparcelas de 9 x 4 píxeles y caracterización de las microparcelas deficitarias en nitrógeno (VDF NDVI 0.20 a 0.27). Se consideró el criterio de fertilizar las microparcelas con >40% píxeles con déficit de nitrógeno
IMTP*: 900
AG X Y NPAG VDAG VDAG/NPAG No. % Clase
AGÍ 314946 22 4184426.25 36 7.82 0.22 30 83.33 5
AG2 314970.19 4184434.00 36 9.15 0.25 36 100.00 5
AG3 314994 16 4184441.75 36 3.36 0.09 13 36.11 1
AG4 315018 13 4184449.50 36 0.00 0.00 0 0.00 1
AG5 315042.09 4184457.50 36 0.00 0.00 0 0.00 1
AG6 314949 69 4184415.50 36 7.32 0.20 29 80.56 5
AG7 314973 66 4184423.25 36 8.84 0.25 36 100.00 5
AG8 314997.59 4184431.25 36 1.83 0.05 7 19.44 1
AG9 315021 56 4184439.00 36 0.00 0.00 0 0.00 1
AG10 315045.53 4184446.75 36 0.00 0.00 0 0.00 1
AG11 314953.13 4184405.00 36 8.00 0.22 33 91.67 5
AG12 314977 09 4184412.75 36 8.36 0.23 34 94.44 5
AG13 31500106 4184420.50 36 0.00 0.00 0 0.00 1
AG14 315025.03 4184428.25 36 0.00 0.00 0 0.00 1
AG15 315049.00 4184436.00 36 0.00 0.00 0 0.00 1 AG1& 31504900 4184-136.00 36 0 00 0 00 0 0 00
AG16 314956.59 4184394 25 36 S.25 0.23 36 100.00 5
AG17 31498056 418440200 36 4 98 0 14 20 55 56
AG18 315004 53 4184409 75 36 0.00 0.00 0 0.00
AG 19 315028 SQ 4184417.75 36 D 00 0 00 0 0 00
AG20 315052.4? 418442550 36 0.00 0.00 0 0.00
AG21 31496008 4184383. SO 36 8 45 0 23 36 100 QO S
AG22 31498403 4184391 50 36 1.04 0.03 4 11.11
AG23 31 SOOB QO 41 B439S.25 35 0 00 0 00 0 0 00 1
AG24 315031.97 3184407 00 36 0.00 0.00 0 0.00
AG2δ 315055 94 4184414.75 36 0 78 0 02 3 8 33
NTAG: 900 IVDA: 78.1
NTAG/NTP VDAM: 0.09
*Abrev¡aturas: ver tabla 1
Tabla 4. Resultados cuantitativos del seccionamiento de Ia imagen de guisantes (Figura 4; de 0.7 ha), en microparcelas de 19 m x 10 m, caracterización de éstas según el porcentaje de píxeles infestados por Orobanche crenata (NDVI VDF 0 a 0,619), y clasificación de las microparcelas. Criterio de aplicar fitosanitarios solo en infestaciones > 25% (clases 2 a 5).
NTP 5225
VDAG,'
AG X Y NPAG VOAG NPAG NO. % Clase
AGÍ 3418394? 4161179.50 190 0 Q0 coa 0 O GO 1
AG2 341858.47 418117S 50 190 O.QD 000 0 0.00 1
AG3 341877.4? 416117960 190 1 23 0.01 1 05 1
AG4 3418:964? 4161179.50 190 491 0.03 8 421 1
AG5 341915 47 41611 raso 190 661 0.03 11 5 79 1
AG6 341839.47 416116850 190 αoo 0.00 0 0.00 1
AG? 3418664? 4161169.50 190 058 000 1 053 1
AG8 341877.47 416116S 50 190 26.52 0 14 46 24.21 1
AG9 341896.4? 416116950 190 36.45 0.19 62 32.63 5
AGIO 3419154? 416116950 190 65 53 0 35 117 61 58
AGI I 341839 47 4161159.5Ü 190 ooo 0.00 0 O CO 1
AG 12 3418SS.47 416115550 K<0 S 38 0.04 14 7 37 1 AG13 341877 47 4161159,50 190 32 34 0 17 54 28.42 5
AG14 341896.47 4161159.50 190 51 82 0.27 89 46.84 5
AG15 341915.47 4161159.50 190 87.06 0.46 190 100.00 5
AG16 341839.47 4161149 50 190 0.00 0.00 Q 0.00 1
AGÍ 7 341858.47 4161149 50 190 29.28 0.15 50 26.32 5
AG18 341877 47 4161149,50 190 40.41 0 21 68 35.79 5
AG19 341896.47 4161149.50 190 66 74 0.35 137 72.11 5
AG20 341915.47 4161149.50 190 66.21 0.35 190 100.00 5
AG21 341839 47 4161139 50 190 1.23 0 01 2 1 05 1
AG22 341858.47 4161139.50 190 9.08 0.05 15 7.89 1
AG23 341877.47 4161139.50 190 14.33 0 08 24 12.63 1
AG24 341896.47 4161139.50 190 74 75 0.39 174 91.58 5
AG25 341915 47 4161139 50 190 64 70 0 34 188 98 95 5
AG26 341839 47 4161132 00 95 0.00 0 00 2 1 05 1
AG27 341858.47 4161132 00 95 6.60 0.07 15 7.89 1
AG28 341877 47 4161132 00 95 19 52 0 21 38 20.00 1
AG29 341896 47 4161132 00 95 37 29 039 122 64.21 5
AG30 341915.47 4161132.00 95 35.54 0.37 133 70.00 5
NrAG. 522S SVDA. 767.22
NTAG/NTP: 1.00 VDAsVI 0 15
*Abrev¡aturas: ver tabla 1
Referencias
-- Barroso, J., C. Fernández-Quintanilla, P. Ruiz, P. Hernáiz and L. J. Rew. 2004. Spatial stability of Avena sterílis ssp. Ludoviciana populations under annual applications of low rates of imazamethabenz. Weed Res. 44:178-186. - Blackmore, S. 1996. An information system for precisión farming. Brighton Conference on Pests and Diseases, Brighton, Reino Unido, vol.: 3: 1207-1214.
- Anderson G. L., J. H. Everitt, AJ. Richardson, and D. E. Escobar. 1993. Using satellite data to map false broomweed infestations in South Texas rangeland, Weed Technology, 7: 865-871.
- Calera A., Martínez C. and Meliá J. 2001. A procedure for obtaining green plant cover: relation to NDVI in a case study for barley. Int. J. of Remote Sensing, 22: 3357-3362. - Calera A., González-Piqueras J. and Meliá J. 2002. Remote sensing monitoring crop growth. In Proceedings of Recent Advances in Quantitative Semote Sensing, Valencia, pp 522-529.
- Cloutis, E.A., Connery, D. R. Major, DJ. and Dover, FJ. 1996. Airborne multispectral monitoring of agricultural crop status: effect of time of year, crop type and crop condition parameter. Intern. Journal of Remote Sensing, 17: 2579-2601.
- Chuvieco, E. (2002) Teledetección Ambiental. Editorial Ariel, Madrid. 568 páginas.
- Denison, R. F., Miller, R. O., Bryant, D., Abshahi, A. & Wildman, W. E. 1996. Crop management goes high tech. California Agriculture, May-June
1996.
- Everitt, J. H. and C. J. Deloach. 1990. Remote sensing of Chínese tamarisk (Tamarix chinensis) and associated vegetation. Weed Sci. 38:273-278. - Everitt, J. H., J. V. Richerson, M. A. Alaniz, D. E. Escobar and M. R. Davis. 1994. Light reflectance characteristics and remote sensing of big bend loco (Astragalus mollissimus var. earlei) and wooton loco (Astragalus wootonü). Weed Sci. 42:115-122.
- Felton, W. L., C. L. Alston, C, B. M. Haigh, P. G. Nash, G. A. Wicks and G. E. Hanson. 2002. Using reflectance sensors in agronomy and weed science. Weed Technol. 16:520-527. - García-Torres, Luis; José Manuel Peña Barragán; Juan José Caballero Novella; Montserrat Jurado Expósito y Francisca López-Granados. 2008. El programa informático SARI para Ia interpretación de imágenes remotas: formación de agrupamientos de píxeles, delineación de regiones de interés, segmentación de las mismas en "micro-imágenes" y evaluación individualizada y automática de las misma. Registro de Ia Propiedad Intelectual, Consejería de Cultura, Junta de Andalucía, Sevilla, Número de Registro 200899900226820, Marzo 2008, 28 páginas.
- García-Torres, Luis; José Manuel Peña Barragán; Francisca López- Granados; y Montserrat Jurado Expósito. 2007. Procedimiento para Ia caracterización automática de indicadores agronómicos y ambientales de plantaciones de árboles en imágenes remotas de alta resolución espacial mediante el subprograma informático "Clustering Assessment IDL. IAS.1 ® (CLUAS). Solicitud de Patente 200700256, 38 páginas, 31 Enero 2007 - García Torres L., J. M. Peña-Barragán, F. López-Granados, M. Jurado- Expósito, R. Fernández-Escobar. 2008. Automatic assessment of agro- environmental indicators from remotely sensed images of tree orchards and its evaluation using olive plantations. Computers and Electronic in Agriculture, 61 , 179-191. - Girma, K., J. Mosali, W.R. Raun, K. W. Freeman, K. L. Martín, J. B. SoNe and M. L. Stone. 2005. Identification of optical spectral signature for detecting cheat and ryegrass in winter wheat. Crop Sci. 45:477-485.
- Goel P. K., S.O. Prasher, R. M. Patel, D. L. Smith, A. DiTommaso. 2002. Use of airborne multispectral imagery for weed detection in crops., Transactions of ASAE, 45: 443- 449.
- Heisel, T., C. Andreasen and A. K. Ersboll. 1996. Annual weed distributions can be mapped with kriging. Weed Res. 36:325-337
- Jackson, R. D. and Huete, A. R. 1991. Interpreting vegetation indexes. Prev. Vet. Med. 11 : 185-200. - Jurado-Expósito M., López-Granados F. García-Torres L., García-Ferrer A., Sánchez de Ia Orden M. and Atenciano S. 2003. Multi-species weed spatial variability and sote-specific management maps in cultivated sunflower. Weed Science , 51 , 319- : 328.
- Kanemasu, E. T., Demetriades-shah, T. H. & Su, H. 1990. Estimating grassland biomass using remotely sensed data. In. Application of Remote Sensing ed. M. D. Steven and J.A. Clark, p.185-199.
- Koger, H. K., D. R. Shaw, K. N. Reddy and L. M. Bruce. 2004. Detection of pitted morningglory
(Ipomoea lacunosa) with hyperspectral remote sensing. Il Effects of vegetation ground cover and reflectance properties. Weed Sci. 52:230-235. -- Kokaly, R. F., Despain, D. G., Clark, R. N. and Livo, K. R. 2003. Mapping vegetation in Yellowstone National Park using spectral feature analysis of AVIRIS data, Remote Sensing of Environment, 84: 437-456.
-- Kropff, M. J., Wallinga, J. & Lotz, L. A. P. 1997. Modelling for precisión weed management. In Precisión Agriculture: Spatial and temporal variability of environmental quality. LJ. Ciba Foundation 1997, Bock G. R. and Goode J.A. (ed.), 182-204. John Wiley and Sons Ltd.
- Lass, L. W. and R. H. Callihan. 1997. The effect of phenological stage on detectability of yellow hawkweed (Hieracium pratense) and oxeye daisy (Chysanthemum leucanthemum) with remote multispectral digital imagery. Weed Technol. 11 :248-256.
- Lanjeri S., Meliá, J. and Segarra D. 2001. A multitemporal masking classification method for vineyard monitoring in central Spain. Intern. Journal of Remote Sensing, 22: 3167-3186. - Lanjeri S., Segarra D. Calera A and Meliá J. 2002. Study of the land use changes effects on the evapotranspiration in central Spain using remote sensing techniques. Proceedings of Recent Advances in Quantitative Semote Sensing, Valencia, pp 530-536.
- López-Granados López-Granados, F., Jurado-Expósito, M., Peña- Barragán, J. M., García-Torres, L. 2006. Using remote sensing for identification of late-season grass weed patches in wheat. Weed Sci., 54, 346-353.
- López-Lozano R. and Casterad M.A. 2003. Una aplicación SIG para seguimiento en parcela mediante NDVI de irregularidades en el desarrollo del cultivo. Proceedings del X Congreso Nacional de Teledetección, Cáceres, pp 9-12.
- Medlin, C. R., D. R. Shaw, P. D. Gerard and F. E. Lamastus. 2000. Using remote sensing to detect weed infestations in Glycine max. Weed Sci. 48:393-398. - Peña Barragán J. M., F. López Granados, S. Atenciano, M. Jurado Expósito, M. Sánchez de Ia Orden, A. García- Ferrer & L. García-Torres. (2004). Assessment of soil uses in olive groves from aerial photographs, Agrículture, Ecosystems & Environment, 103, 117-122.
- Peña-Barragán J. M., F. López- Granados, M. Jurado-Expósito, and L. García-Torres. 2007. Mapping Ridolfia segetum patches in sunflower crop using remote sensing. Weed Research, 17: 164-172
- Radhakrishnan, J, S Liang, J. R. Teasdale and C. J. Shuey. 2002. Remote sensing of weed canopies. In: From laboratory spectroscopy to remotely sensed spectra of terrestrial ecosystems (eds Ranjan S. Muttiah), 175-202. Kluwer Academic Publishers.
- Schmidt, K. S. and A. K. Skidmore. 2003. Spectral discrimination of vegetation types in a coastal wetland. Remote Sensing Environ. 85:92-108.
- Smith, A. M. & R. E. Blackshaw. 2003. Weed-Crop discrimination using remote sensing: a detached leaf experiment. Weed Technol. 17:811-820. - Thorp K. R. & L. F. Tian. (2004). A review of remote sensing of weeds in agriculture. Precisión Agrie, 5, 477- 508.
-- Timmermann, C, Gerhards, R., Kühbauch, W. 2003. The economic impact of site-specific weed control. Precisión Agrie, 4: 249-260.

Claims

REIVINDICACIONES
1.- Procedimiento automático para seccionar una imagen remota en imágenes rectangulares de menor tamaño (microimágenes/ microparcelas), que comprende las siguientes etapas: a) Toma de imagen de satélite o fotografía aérea hiperespectral, multiespectral o pancromática, de alta resolución espacial b) Digitalización y georreferenciación, en los casos que sea necesario (por ejemplo fotografías aéreas no digitalizadas ni georreferenciadas). c) Análisis primario de Ia imagen tomada en a) que comprende a su vez las siguientes etapas: c.1 ) Recorte o aislamiento de Ia imagen correspondiente a Ia parcela objeto de estudio c.2) Obtención de imágenes simples formadas por una sola banda ó índice de vegetación, c.3) Definición de regiones representativas ("regiones de interés") de los principales usos de suelo en Ia imagen simple o imágenes simples seleccionadas, c.4) Definición de valores digitales frontera (VDF) de cada uso de suelo y clasificación/ separación de los mismos en Ia imagen simple seleccionada, mediante un proceso iterativo de selección de VDF contrastado estadísticamente, d) Definición de los parámetros del seccionamiento de Ia imagen, entre otros el tamaño de las microparcelas e) Definición, para un uso de suelo seleccionado, del criterio (% píxeles y valores digitales integrados) que motiva para cada microparcela Ia aplicación o no de un determinado tratamiento f) Activación del programa informático Splitting and Assessment of Remote
Images (SARI®) en ENVI e implementación de Ia imagen simple obtenida en c) en SARI®, que comprende a su vez las siguientes etapas: f.1 ) Introducción en SARI® de los parámetros de agrupamientos y de formación de microimágenes/ microparcelas (ROIs) seleccionados en los puntos anteriores c.3, c.4, d y e f.2) Procesado y obtención por SARI® de los indicadores agronómicos y ambientales de acuerdo con los parámetros introducidos para cada microparcela y previamente indicados, así como de Ia obtención de los mapas de tratamiento. f.3) Estudio y visualización de Ia información generada automáticamente por SARI®
2.- Procedimiento para seccionar una imagen remota según Ia reivindicación 1 , caracterizado porque Ia resolución espacial de dicha imagen remota puede variar desde imágenes con píxeles inferiores a 1 m a centenares de metros.
3.- Procedimiento para seccionar una imagen remota según Ia reivindicación 1 , caracterizado porque Ia imagen simple obtenida en c.2) está formada por una sola banda o índice del espectro visible (azul: B, verde: G, rojo: R; e infrarrojo cercano NIR), pancromática, o cualquier otra banda en el caso de imágenes hiperespectrales, o de cualquier índice de vegetación que se defina mediante un algoritmo entre cualquiera de las bandas antes mencionadas.
A - Procedimiento para seccionar una imagen remota según Ia reivindicación 1 , caracterizado porque se define el tamaño de las microparcelas en rectángulos cuya longitud y anchura sea múltiplo del pixel de Ia imagen según el objetivo del estudio en curso.
5.- Procedimiento para seccionar una imagen remota según Ia reivindicación 4, caracterizado porque Ia longitud y altura de las microparcelas rectangulares obtenidas por el seccionamiento se determina con flexibilidad desde un pixel a cualquier múltiplo de éste.
6.- Procedimiento según Ia reivindicación 1 , caracterizado porque los indicadores obtenidos en el punto f.2), además de su centro expresado en coordenadas geográficas, superficie o número de píxeles integrados (NP), valores digitales integrados en cada agrupamiento (VDAG) y VDGA/ NP ó productividad potencial, y clasificación automática de cada microparcela según el porcentaje de píxeles y/o valores digitales integrados de las mismas, pueden directamente interpretarse diversos indicadores agronómicos y ambientales, entre otros, según el contenido o temática de Ia imagen primaria analizada y Ia interpretación de los datos cuantitativos antes indicados de cada microparcela, el porcentaje de cultivo infestado de una determinada especie de mala hierba, patógeno o con déficit/ carencia nutricional, esto es contenido de un nutriente por debajo de un determinado nivel, Io que permite estimar el descenso de Ia producción o cosecha potencial y el porcentaje de superficie en el que es recomendable o no Ia aplicación de fitosanitarios y/o fertilizantes.
7.- Procedimiento según Ia reivindicación 1 , caracterizado porque las imágenes remotas se toman preferentemente en Ia primavera o verano en climas templados, y/o cuando sea posible diferenciar espectro- radiométricamente las variaciones en el desarrollo de Ia vegetación o cualquier uso de suelo, por ejemplo distintas especies vegetales, cultivos agrarios, árboles y animales, etc.
8.- Procedimiento según Ia reivindicación 1 , caracterizado porque las parcelas de terreno a procesar pueden sustentar cualquier especie vegetal, espacio natural, agrícola o forestal, tener cualquier especificidad orográfica o topográfica, sin limitación de su superficie.
9.- Utilización de un procedimiento según las reivindicaciones de Ia 1 a Ia 8 para Ia obtención automática de indicadores agronómicos y ambientales de cada microparcela obtenida por seccionamiento.
10.- Utilización de un procedimiento según Ia reivindicación 9, caracterizado porque los indicadores que se obtienen son entre otros, su centro expresado en coordenadas geográficas, superficie o número de píxeles integrados (NP), valores digitales integrados en cada agrupamiento (VDAG) y VDGA/ NP ó productividad potencial, clasificación automática de cada microparcela según el porcentaje de píxeles y/o valores digitales integrados de las mismas, cuya directa interpretación agro-ambiental, según Ia temática de Ia imagen analizada, puede ser, entre otros, el porcentaje de cultivo infestado de una determinada especie de mala hierba, patógeno o con déficit/ carencia nutricional, el descenso de Ia producción o cosecha potencial y el porcentaje de superficie en el que es recomendable o no Ia aplicación de fitosanitarios y/o fertilizantes.
11. -Utilización de un procedimiento según las reivindicaciones de Ia 1 a Ia 8 para Ia elaboración de mapas, georreferenciados, de tratamientos de prescripción de fertilizantes, fitosanitarios u otros inputs, basándose en los indicadores obtenidos para cada microparcela
12. -Utilización de un procedimiento según las reivindicaciones 1 a 8, para discriminar los usos de suelo que se definan en imágenes simples de una sola banda o índice vegetativo, y seguidamente seccionar automáticamente en microparcelas y cuantificar o integrar los valores digitales (VDAG), en cada una de éstas los indicadores objeto de estudio, en todas y cada una de las microparcelas.
13.- Utilización de un procedimiento según las reivindicaciones 1 a 8 para diseñar e implementar un programa de agricultura de precisión que utiliza un mapa georreferenciado de aplicación de inputs en cada microparcela.
14.- Utilización de un procedimiento según Ia reivindicación 13 caracterizado porque el programa de agricultura de precisión es relativo a Ia aplicación de fertilizantes y/o fitosanitarios para contrarrestar zonas nutricionales deficitarias, ataque de organismos patógenos/ enfermedades, o a insectos-plagas y/o rodales de malas hierbas, susceptibles de corregirse mediante tratamientos fitosanitarios.
PCT/ES2009/070247 2008-06-27 2009-06-24 Procedimiento automático para seccionar imágenes remotas y caracterizar indicadores agronómicos y ambientales en las mismas WO2009156542A1 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ES200801932A ES2332567B1 (es) 2008-06-27 2008-06-27 Procedimiento automatico para seccionar imagenes remotas y caracterizar indicadores agronomicos y ambientales en las mismas
ESP200801932 2008-06-27

Publications (1)

Publication Number Publication Date
WO2009156542A1 true WO2009156542A1 (es) 2009-12-30

Family

ID=41444063

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2009/070247 WO2009156542A1 (es) 2008-06-27 2009-06-24 Procedimiento automático para seccionar imágenes remotas y caracterizar indicadores agronómicos y ambientales en las mismas

Country Status (2)

Country Link
ES (1) ES2332567B1 (es)
WO (1) WO2009156542A1 (es)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021007665A1 (en) * 2019-07-17 2021-01-21 Farmers Edge Inc. Automatic crop classification system and method
CN112330560A (zh) * 2020-11-05 2021-02-05 中国科学院国家空间科学中心 一种合成孔径雷达数据图像可视化增强方法及系统
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US20220110251A1 (en) 2020-10-09 2022-04-14 Deere & Company Crop moisture map generation and control system
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2609614A (en) * 2021-08-02 2023-02-15 Geovisual Tech Inc Variable rate herbicide application maps using UAV images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001033505A2 (en) * 1999-11-04 2001-05-10 Monsanto Company Multi-variable model for identifying crop response zones in a field
US6404920B1 (en) * 1996-09-09 2002-06-11 Hsu Shin-Yi System for generalizing objects and features in an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404920B1 (en) * 1996-09-09 2002-06-11 Hsu Shin-Yi System for generalizing objects and features in an image
WO2001033505A2 (en) * 1999-11-04 2001-05-10 Monsanto Company Multi-variable model for identifying crop response zones in a field

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"IEEE 2001 International Geoscience and Remote Sensing Symposium. Sydney (Australia) 13/07/2001", ISBN: 978-0-7803-70, article PATERSON ET AL.: "Univ. of New South Wales (Sydney), Wales and Wollongong; "Differentiation of selected Australian Woodland species using CASI data"" *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11650553B2 (en) 2019-04-10 2023-05-16 Deere & Company Machine control using real-time model
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11829112B2 (en) 2019-04-10 2023-11-28 Deere & Company Machine control using real-time model
US11562563B2 (en) 2019-07-17 2023-01-24 Farmers Edge Inc. Automatic crop classification system and method
WO2021007665A1 (en) * 2019-07-17 2021-01-21 Farmers Edge Inc. Automatic crop classification system and method
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US20220110251A1 (en) 2020-10-09 2022-04-14 Deere & Company Crop moisture map generation and control system
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11871697B2 (en) 2020-10-09 2024-01-16 Deere & Company Crop moisture map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
CN112330560B (zh) * 2020-11-05 2024-02-20 中国科学院国家空间科学中心 一种合成孔径雷达数据图像可视化增强方法及系统
CN112330560A (zh) * 2020-11-05 2021-02-05 中国科学院国家空间科学中心 一种合成孔径雷达数据图像可视化增强方法及系统

Also Published As

Publication number Publication date
ES2332567A1 (es) 2010-02-08
ES2332567B1 (es) 2011-02-10

Similar Documents

Publication Publication Date Title
WO2009156542A1 (es) Procedimiento automático para seccionar imágenes remotas y caracterizar indicadores agronómicos y ambientales en las mismas
Hunt Jr et al. What good are unmanned aircraft systems for agricultural remote sensing and precision agriculture?
ES2311322B1 (es) Procedimiento para la discriminacion y mapeo de los rodales de malas hierbas gramineas en cultivos de cereales mediante teledeteccion.
Jiménez-Brenes et al. Quantifying pruning impacts on olive tree architecture and annual canopy growth by using UAV-based 3D modelling
Xie et al. Crop height estimation based on UAV images: Methods, errors, and strategies
Zhao et al. Rapeseed seedling stand counting and seeding performance evaluation at two early growth stages based on unmanned aerial vehicle imagery
Jiménez-Brenes et al. Automatic UAV-based detection of Cynodon dactylon for site-specific vineyard management
US20230292647A1 (en) System and Method for Crop Monitoring
Guan et al. Modeling strawberry biomass and leaf area using object-based analysis of high-resolution images
Pôças et al. An evaluation of changes in a mountainous rural landscape of Northeast Portugal using remotely sensed data
Andreo Remote sensing and geographic information systems in precision farming
Saura et al. Mapping multispectral Digital Images using a Cloud Computing software: applications from UAV images
Kharuf-Gutierrez et al. Multispectral aerial image processing system for precision agriculture
Venancio et al. Mapping of corn phenological stages using NDVI from OLI and MODIS sensors.
Demissie et al. Geospatial solutions for evaluating the impact of the Tigray conflict on farming
Maxwell Generating land cover boundaries from remotely sensed data using object-based image analysis: overview and epidemiological application
Messina et al. Twenty years of remote sensing applications targeting landscape analysis and environmental issues in olive growing: A review
WO2005122744A1 (es) Procedimiento para la discriminación de usos de suelo y cuantificación de cubiertas vegetales mediante teledetección con fotografía aérea.
Qubaa et al. Using uavs/drones and vegetation indices in the visible spectrum to monitoring agricultural lands
ES2303476B1 (es) Procedimiento para la obtencion automatica de indicadores agronomicos y ambientales de plantaciones de arboles mediante teledeteccion.
Hatton Use of small unmanned aerial system for validation of sudden death syndrome in soybean through multispectral and thermal remote sensing
ES2481348B1 (es) Procedimiento para la normalización automática de imágenes remotas multitemporales en base a usos de suelo pseudo-invariantes vegetales.
ES2249159B1 (es) Procedimiento para la discriminacion y cuantificacion de olivar con cubiertas vegetales mediante teledeteccion con sensores de alta resolucion espacial.
Catania et al. Olive Tree Canopy Assessment Based on UAV Multispectral Images
Barnard The use of technology to improve current precision viticulture practices: predicting vineyard performance

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09769388

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09769388

Country of ref document: EP

Kind code of ref document: A1