Rev. Cient. Sist. Inform. 4(1), e591, doi: 10.51252/rcsi.v4i1.591
Artículo de revisión
Review article
Ene-Jun, 2024
https://revistas.unsm.edu.pe/index.php/rcsi
e-ISSN: 2709-992X
Este es un artículo de acceso abierto distribuido bajo los términos de la licencia de atribución de Creative Commons, que permite el uso sin restricciones, distribución y
reproducción en cualquier medio, siempre que se cite debidamente la obra original.
Implementaciones de selección visual en frutas: una
revisión sistemática de literatura
Visual selection in fruits: a systematic literature review
Parraga-Badillo, Saúl Ricardo1*
Coral-Ygnacio, Marco Antonio1
1Universidad Católica Sedes Sapientiae, Lima, Perú
Recibido: 09 Sep. 2023 | Aceptado: 12 Oct. 2023 | Publicado: 10 Ene. 2024
Autor de correspondencia*: saulricardo09@gmail.com
Cómo citar este artículo: Parraga-Badillo, S. R. & Coral-Ygnacio, M. A. (2024). Implementaciones de selección visual en frutas: una
revisión sistemática de literatura. Revista Científica de Sistemas e Informática, 4(1), e591. https://doi.org/10.51252/rcsi.v4i1.591
RESUMEN
La visión artificial tiene una participación importante en el sector agrícola debido a las soluciones que
proporciona mediante el reconocimiento de imágenes de frutos considerando su color y forma. El problema es
la dificultad en la evaluación de la calidad del fruto, siendo realizado por personas que cometen errores al realizar
la selección manual, ya que se involucra el aspecto subjetivo y sus capacidades de percepción. Siendo necesario
implementar sistemas de este tipo, se desarrolló una revisión sistemática de literatura utilizando la metodología
PRISMA, el cual busca identificar los algoritmos, modelos, dispositivos informáticos, librerías o software vigentes
que son utilizados en implementaciones de visión artificial para la fruta. Los resultados evidencian 32 algoritmos,
32 equipamientos informáticos, 35 modelos, 8 librerías o software que posibilita la realización de
implementaciones para la selección visual. En síntesis, la visión artificial impacta significativamente en la
selección y clasificación de frutas al mejorar la eficiente, reducir el trabajo manual y acelerar el tiempo de
selección. Este avance no solo contribuye a la agricultura precisa, sino que también promueve la sostenibilidad
al optimizar los procesos y mejorar la calidad de productos, obteniendo un importante en la unión de la
tecnología con la agricultura.
Palabras clave: agrícola; algoritmos; dispositivos informáticos; frutos; reconocimiento de imágenes; visión
artificial
ABSTRACT
Artificial vision has an important participation in the agricultural sector due to the solutions it provides through
the recognition of images of fruits considering their color and shape. The problem is the difficulty in evaluating
the quality of the fruit, being done by people who make errors when performing manual selection, since the
subjective aspect and their perception abilities are involved. Being necessary to implement systems of this type,
a systematic literature review was developed using the PRISMA methodology, which seeks to identify the current
algorithms, techniques, computing devices, libraries or software that are used in artificial vision
implementations for fruit. The results show 32 algorithms, 32 computer equipment, 35 models, 8 libraries or
software that make it possible to carry out implementations for visual selection. In summary, artificial vision
significantly impacts fruit selection and classification by improving efficiency, reducing manual work and
accelerating selection time. This advance not only contributes to precise agriculture, but also promotes
sustainability by optimizing processes and improving the quality of products, achieving an important role in the
union of technology with agriculture.
Keywords: agriculture; algorithms; computing devices; fruits; image recognition; artificial vision
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
2 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
1. INTRODUCCIÓN
Las implementaciones de visión artificial (VA) sirven para reconocer objetos a partir de técnicas de
inteligencia artificial mediante imágenes adquiridas por cámaras de alta resolución y que posteriormente
son convertidos en datos para ser analizados como información e identificar objetos. La importancia de
estos sistemas radica en la precisión de la identificación.
La aplicación de VA sirve en situaciones reales como el siguiente: el consumidor de productos alimenticios
que al observar defectos en la superficie de cualquier fruta asocia a la calidad de producto, por ello,
identificar un método de rigor, donde se evalúe la producción es complicado, solo los expertos evalúan
visualmente la calidad del fruto (Álvarez-Bermejo et al., 2019); esta evaluación abarca tiempo y costos en
producción, además los trabajadores con menor experiencia suelen equivocarse al clasificar los frutos
(Mazzia et al., 2020); por ese motivo, se hace necesario realizar una implementación con VA para frutas.
La VA y su aplicación a nivel industrial demuestran eficacia al ser una técnica innovadora puesto que se
utilizan técnicas de procesamiento, modelos de clasificación/regresión para la calificación de productos y
estimación de distintas características de frutas (Palumbo et al., 2023), debido a que se necesita contar con
una mejora en el método de producción de frutas con calidad durante la fabricación y comercialización
basado en inspección visual realizada por la computadora (Castro et al., 2019).
En el próximo decenio la producción agrícola crecerá en un 1,4% anual en el ámbito nacional, regional y
mundial, impulsando en gran medida los ingresos de las empresas (FAO, 2020), de tal manera que el sector
alimentario se beneficia con la evolución tecnológica que permite la automatización de recursos en la
categorización de imágenes, que resulta importante para la industria donde se reconoce parámetros
básicos como la efectividad y rapidez (Aguilar Alvarado & Campoverde Molina, 2019).
Durante los últimos años comenzaron a aparecer estudios que aplican técnicas asociadas a la VA en el
sector agrícola, ya que se busca obtener distintos mecanismos automatizados que proporcionen mejora en
la toma de decisiones dentro de la industria (Marco-Detchart et al., 2023); con distintos dispositivos que
permiten el funcionamiento correcto de la implementación de VA junto a algoritmos especializados en
aprendizaje automático que funcionan en plataformas especiales enfocadas en temas de inteligencia
artificial. También, se encontraron trabajos asociados a la mejora de algoritmos que permiten incrementar
la precisión en la detección de objetos en tiempo real (Adeniji et al., 2022) y obtener una mayor calidad en
la segmentación de imágenes y características, demostrando grandes avances en las aplicaciones de VA.
El objetivo del presente trabajo se enfoca en la identificación de algoritmos y modelos utilizados en las
implementaciones de VA para las frutas; además, se identifican las de mejor precisión; asimismo se busca
identificar dispositivos informáticos, librerías o software que son utilizados o empleados en el proceso de
visión por computadora.
2. MATERIALES Y MÉTODOS
Para el desarrollo de la revisión sistemática de literatura se consideraron las fases propuestas por los
autores de la declaración PRISMA (Liberati et al., 2009), enfoque que fue empleado en la investigación
científica para dar inicio a la revisión asociada al campo de la VA, lo cual determina el desarrollo de los
siguientes pasos: planteamiento del título, elaboración del resumen estructurado, la justificación, los
objetivos, el protocolo y registro, los criterios de elegibilidad, las fuentes de información, la búsqueda, la
selección de estudios y la recopilación de datos.
2.1. Objetivos
En esta investigación, se buscó lograr determinados objetivos específicos que orienten el estudio hacia el
tema tratado donde se realice la identificación de algoritmos y modelos de inteligencia artificial con
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
3 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
óptimos rendimientos, esto abarca el análisis de las mejores prácticas para su implementación dentro de
la industria agrícola; asimismo, se buscó reconocer dispositivos informáticos utilizados y librerías o
software de VA disponibles hasta este año para la selección de frutas.
Estos objetivos tienen como finalidad responder las siguientes preguntas:
Q1: ¿Qué algoritmos de selección visual han sido utilizados para la selección de frutas?
Q2: ¿Qué equipamiento informático se utiliza en las implementaciones de visión por computadora para la
selección de fruta?
Q3: ¿Qué modelos de Inteligencia Artificial se utilizan para la descripción y detección de características de
las frutas?
Q4: ¿Qué modelo de Inteligencia Artificial ha tenido el mejor resultado con respecto a la descripción y
detección de características de las frutas?
Q5: ¿Qué algoritmos de selección visual tienen una mejor performance en la selección de frutas?
Q6: ¿Qué librerías o software de visión por computadora existen para la selección visual de frutas?
2.2. Fuentes de información
Las bases de datos científicas consultadas fueron Scopus e IEEE Xplore, siendo las más indicadas, ya que
proporcionan publicaciones con estudios exhaustivos en diversos idiomas, confiables y de alta calidad que
proporciona información relevante y actualizada evaluados y aprobados por expertos en el campo.
2.3. Búsqueda
Esta fase es importante, al permitir que se identifiquen los estudios relevantes para la revisión sistemática.
Una adecuada elección de palabras clave nos garantizó la identificación de estudios pertinentes asociados
al tema. En la siguiente cadena de búsqueda, se consideraron palabras clave que provienen de los objetivos
establecidos anteriormente, adicional a ello, se tiene en cuenta los operadores lógicos OR, que permite la
unión de palabras clave por cada objetivo señalado y el conector AND que vincula el grupo de palabras
clave que ayuda a limitar la búsqueda para posteriormente utilizar en los buscadores de las bases de datos.
Tabla 1.
Cadena de búsqueda
Acción
Operadores y palabras clave
Cadena de
búsqueda
utilizada en
buscadores de
Base de Datos
( ( "selection" OR "choise" OR "classification" ) AND ( "computer vision" OR "artificial
vision" OR "visual identification" OR "image processing" ) AND ( "sowing" OR "plant" OR
"field" OR "fruit" OR "avocado" ) AND ( "algorithms" ) AND ( "devices IT" OR "IT
equipment" OR "hardware" ) AND ( "implementations" OR "packages" OR "software" OR
"libraries" ) AND ( "techniques" OR "methods" OR "models" ) AND ( "artificial intelligence"
OR "IA" ) )
2.4. Selección de Estudio
En este paso se realiza el proceso de identificación y filtrado respectivo de los artículos científicos
encontrados y que son relevantes dentro del trabajo de investigación. Este paso permite garantizar la
respuesta a las interrogantes y obtener información pertinente para el estudio de implementación de la VA.
En la Figura 1, se observa que dentro de la selección de estudio se realizan varios pasos. En primer lugar,
dentro del proceso de identificación, se inició la búsqueda de la literatura en las bases de datos señaladas
previamente el día 7 de octubre del 2023, donde se obtuvieron 9 069 registros en total. Esta cantidad de
registros son filtrados mediante los criterios de exclusión que indica que no se aceptan artículos en prensa,
documentos de conferencia, revisiones, libros, capítulos de libros, encuestas cortas, editoriales, documento
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
4 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
de datos, notas, letras y retraídos; además se excluyeron áreas que no abarquen Ciencias de la
Computación, Ingeniería y Agricultura, esto para retirar aquellas investigaciones que no estén relacionados
al tema y que tengan palabras clave.
Figura 1. Diagrama de flujo de la revisión sistemática
Estos criterios de exclusión permiten retirar 4 930 registros quedando 4 139 registros con los criterios de
inclusión que determinó la inclusión de artículos con estados de publicación finalizados con una unidad de
análisis que involucre implementaciones de selección de frutas, donde se logre identificar modelos,
algoritmos y dispositivos de tecnologías de la información desde el año 2017 hasta la actualidad. Después
de las restricciones aplicadas, no se aplica la eliminación de trabajos de investigación duplicados, porque
no aplica su existencia. En segundo lugar, está el proceso de Cribado, que consta la lectura del título y
resumen de cada artículo filtrado. En este paso, se detectan solamente 53 artículos que cumplen con lo
Identificación
Búsqueda de literatura:
Base de datos: IEEE Xplore y Scopus
las búsquedas en las Base de datos.
Número de registros adicionales
identificados mediante otras fuentes
Artículos seleccionados en base a mites
Incluido (n=4139)
Estado de publicación: Finalizado
Año de publicación: 2017 -2023
Tipo de documento: Artículo
Área temática: Agricultura, Ciencias de
Computación e Ingeniería
Excluido (n=4930)
Estado de publicación: Artículo en prensa
Año de publicación: 1973 -2016
Tipo de documento:Documento de conferencia, Revisiones,
Libros, Capítulos de libros, Encuestas cortas, Editoriales,
Documento de datos, Notas, Letras y Retraídos.
Área temática: No pertenecientes al área de Agricultura,Ciencias
de Computación e Ingeniería
Palabras clave: Antennas, Autonomous Vehicles Robotics
,Benchmarking,Biometrics, Cryptography, Face Recognition,
Medical Imaging, Speech Recognition, Surveys.
Artículos seleccionados tras eliminacn por
duplicidad (n=4139)
Cribado
Artículos seleccionados mediante el título y resumen
Incluido(n=53)
Excluido(n=4086)
-No existe uso de metodología de
investigación, estadística y análisis
-No existe realización de implementación
Revisn completa de artículos
Incluido (n=36)
Excluido(n=17)
-No existe uso de metodología de
investigación, estadística y análisis
-No existe realización de implementación
Número de estudios incluidos en la síntesis
cuantitativa (metaanálisis)
Elegibilidad
Inclusión
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
5 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
indicado; mientras que los otros 4 086 trabajos fueron descartados. En tercer lugar, dentro del proceso de
Elegibilidad, se realiza la revisión completa del texto de cada documento, obteniendo un total 36 estudios
que cumplen la condición; en contraste 17 escritos fueron anulados debido a la inexistencia de
implementaciones o metodologías de investigación, estadísticas o análisis asociados a la temática que se
realiza en la revisión sistemática. Por último, en el proceso de inclusión, como su nombre lo indica se
incluyen los estudios asociados a reconocimiento de distintos tipos de frutas expuestos en el artículo de
revisión.
2.5. Recopilación de datos
Al obtener los artículos filtrados, se comenzó con el análisis cuantitativo en figuras y tablas estadísticas que
se organizan de la siguiente manera:
La Tabla 2 muestra las palabras clave más utilizadas que se obtienen al analizar las palabras clave que nos
proporciona cada artículo, se realiza el conteo de palabras donde se obtuvieron términos clave que aportan
en la investigación. Las palabras clave Deep learning e Image processing son términos muy relevantes en
la investigación, esto nos permite señalar que se exploran áreas en la detección y análisis de imágenes con
técnicas de aprendizaje profundo. Asimismo, se tiene que Fruit detection, Object detection y YOLO está
relacionada con la identificación y seguimiento de frutas con modelos de detección. En contraste, se
encuentran los términos con menor frecuencia como 3D imaging, Adaptive hue threshold (AHT), etc. que
son temas con enfoque secundario en el artículo. La lista nos presenta una diversidad de términos y áreas
de la inteligencia artificial que brinda una visión general del tema, permitiendo inferir que se el trabajo está
centrado en aplicación de técnicas de VA y aprendizaje automático que posibilitan la mejora en la precisión
y eficiencia en el reconocimiento de imágenes.
Tabla 2.
Palabras clave más usadas
Palabras clave
Frecuencia
Deep learning, image processing
6
Computer vision, fruit detection, Machine learning, object detection, YOLO
3
Apple detection, Apple growth, Artificial intelligence, Convolutional neural network,
edge detection, fruit horizontal diameter estimation, fruit maturity, harvesting robots,
image classification, K-nearest neighbors, ResNet-50, Support vector machine, remote
monitoring
2
3D imaging, Adaptive hue threshold (AHT), and value (HSV) space, Apple bruise grading,
apple sorting system, artificial neural networks, avocado, balance between saturation
and luminance, Cameras, Cape gooseberry, citrus fruit diseases detection, Citrus leaf
diseases, Classification, Climacteric fruit, CNN classifier, cocoa farmers, Color, color
detection, Color features, color image segmentation, color spaces, complicated
environment, Continuous picking, Co-occurrence matrix, curve fitting, Data
augmentation, date fruit, decision trees, deforestation, depth image, digital storage,
Direct methods, Disc method, Disorder detection, drought prevision, Edge AI,
EfficientNet, faster RCNN, feature selection, Firmness, Food grading, food measurement,
food storage, food technology, fresh fruit bunch, fruits, frustum method, graph
segmentation, grasping, Hass, Homography, hue, Hyperparameter tunning,
hyperspectral imaging, hyperspectral imaging (HSI), image alignment, image process,
Image segmentation, Industry 4.0, information fusion, Internet of things (IoT),
knowledge distillation, Lasso regressions, lightweight network, load cell, location
detection of fruit-bearing branches, low-cost smart agriculture, Machine learning
models, machine vision, Machine vision system, Machine vision systems, Machinery,
maturity, mechanical harvesting, Model validation, Modern agriculture, modified
YOLOv4, morphology, multi-camera, multiclass confusion matrix, multi-class detection,
multi-modal visual data, multi-modality faster R-CNN, Nearest neighbor search, non-
destructive methods, oil palm, oil palm ripeness, online detection, PCA, Picking robot,
post-harvest, Postharvest technology, predicate optimization, Procrustes analysis,
Raspberry Pi, real-time counting, real-time detection, real-time embedded systems,
1
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
6 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
reinforcement learning, remote sensors monitoring, RGB-D image, RGB-D sensor,
ripening, ripening classification, robotic arm, robots, saturation, Sensors, SITS, size
measuring, smart electronics, Smart farming, smartphones, smart-phone cameras,
socio-technical transition, sorting, speed and accuracy, starfruit mass, starfruit volume,
stereo vision, support vector machines, Support vector regression, Support vector
regression(SVR), Target fruit, Textural feature, Tomatoes sorting, transfer learning, U-
NET, water resources forecasting, Watermelon internal quality, YOLO-Light,
YOLOMuskmelon, YOLOv3, YOLOv4, YOLOv5, YOLOv5s, Zanthoxylum bugeanum fruit
detection
De los artículos seleccionados en el estudio, se observa en la Figura 2, la existencia de varias publicaciones
que se ubican en el Quartil 1 (Q1) lo cual indica que hay un número significativo de publicaciones de alta
calidad y su alto factor de impacto; en contraste se tienen pocas publicaciones en el Quartil 2(Q2), Quartil
3 (Q3), y el Quartil 4 (Q4), donde se refleja un impacto bajo y poca influencia en el tema de investigación.
Estos resultados sugieren que existe un enfoque en la calidad de las publicaciones, pero también hay
espacio para la difusión de conocimientos en revistas y conferencias de menor reconocimiento.
Figura 2. Cantidad de publicaciones por quartil
La Figura 3 se obtuvo a partir de una revisión de la nacionalidad de los autores que tiene cada artículo, esto
permite descubrir el interés de investigación que tiene el representante de cada país, donde China tiene la
mayor capacidad de participantes, lo que indica un significativo enfoque en la investigación y dedicación;
seguido se tiene a Italia ocupando el segundo lugar con 10 autores académicos, que demuestra interés
creciente en el tema de investigación; mientras que Bangladesh, Canadá, Emiratos Árabes Unidos, Irán y
Rusia tienen poco interés por el tema de investigación. Estos hallazgos resaltan el valor y la cantidad de
investigadores en distintas partes del mundo.
28
4
2 2
0
5
10
15
20
25
30
Publicaciones por Quartil
Q1
Q2
Q3
Q4
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
7 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Figura 3. Número de investigadores por país
En la Figura 4, la editorial que presentó la mayor cantidad de publicaciones relacionado al tema de
investigación fue Institute of Electrical and Electronics Engineers (IEEE), luego se tiene a la editorial
Multidisciplinary Digital Publishing (MDPI) como una de las editoriales que se enfocan en el estudio. En
tanto que, Springer, De Gruyter Open Ltd. y otras editoriales son aquellas que cuentan con pocas
publicaciones con respecto al tema de investigación. Esto nos permite indicar que cada editorial presenta
una amplia gama de conocimientos y avances en el campo, lo que demuestra el interés e importancia de la
investigación en la comunidad científica y/o académica.
Figura 4. Editoriales con mayor cantidad de publicaciones
En la Figura 5 se observa los diez mayores artículos citados por cada autor, por un lado, los artículos de
Khriji et al. (2020), Adhitya et al. (2020), Wu et al. (2021) y D. Chen et al. (2021) son los más citados en el
tema de investigación sobre la selección de paltas. Estos artículos tienen un mayor interés; por el contrario,
artículos como Cho et al. (2021), Ferraris et al. (2023) y Lee et al. (2023), obtienen poca atención en el
contexto del estudio. Estos resultados indican que los autores con mayores citas aportaron con su estudio,
siendo los más referenciados por la comunidad científica.
76
10 986 6 55554433333332 2 11111
0
10
20
30
40
50
60
70
80
China
Italia
Indonesia
Japón
España
Vietnam
Australia
Bélgica
Corea del Sur
Nigeria
Colombia
Pakistan
Algeria
Arabia Saudita
Estados Unidos
Malasia
Omán
Países Bajos
Perú
México
Taiwán
Bangladesh
Canadá
Emiratos Árabes…
Irán
Rusia
Investigadores por país
1
1
1
1
1
1
1
12621
0 5 10 15 20 25
Chinese Academy of Agricultural Sciences
Politeknik Negeri Padang
IGI Global Publishing
Springer New York LLC
Springer
Institute of Electrical and Electronics…
Editoriales con más publicaciones
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
8 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Figura 5. Top 10 cantidad de artículos citados por autor
3. RESULTADOS Y DISCUSIÓN
3.1. Imágenes digitales y su clasificación
Las imágenes digitales están compuestas por píxeles, siendo la unidad mínima de la imagen, esto se debe a
que a la imagen está definida como una función en dos dimensiones “f(x,y)” donde “f” representa la
intensidad del color gris; mientras que el valor “x” y el valor “y” son las coordenadas del plano (Constante,
2012). Por eso, al pasar la información del objeto del plano tridimensional al bidimensional se convierte en
una imagen digital que es capturada por dispositivos que cuenten con un lente especial. Esta imagen
digitalizada y cuantificada se presenta mediante una matriz numérica en el cual se ubican los pixeles
ubicados en pares ordenados “f(x,y)” donde cada información obtenida de cada píxel de una imagen se le
categoriza como se observa en la Tabla 3 (Heras, 2017):
Tabla 3.
Categorías de imagen
Tipo de imagen
Descripción
Imágenes bitonales
Son imágenes estructuradas basadas en dos
colores, negro con un valor de 0 y el blanco con
un valor de 255.
Imágenes en escala de grises
Son imágenes estructuradas en base a una
diversidad de 256 niveles de grises.
Imágenes a color
Son imágenes estructuradas con base en tres
distintas matrices del tipo monocromático con
256 niveles representativos de los colores
primarios: rojo, verde y azul.
3.2. La visión artificial
La visión artificial es una ciencia que permite programar a la computadora de tal modo que realice el
procesamiento y comprensión de las imágenes digitales. Esta tecnología posibilita lograr satisfacer las
expectativas del consumidor de manera rigurosa y veloz (Valdivia Arias, 2016), su utilidad se basa en
procesar las imágenes y analizarlas teniendo en cuenta su color y figura del objeto (Amaya-Zapata et al.,
2016). Esta ciencia, presenta, por un lado, tres beneficios como la rapidez, exactitud y repetitividad al
procesar imágenes con determinadas estructuras; esto dependerá mucho del funcionamiento de la cámara
con resolución adecuada, (Augusto, 2020) dado que al capturar escenas se requiere obtener una mayor
visibilidad de la imagen para su posterior análisis. Por otro lado, la rama de la Inteligencia Artificial también
17
27
27
30
34
39
42
80
93
113
020 40 60 80 100 120
(Cho et al., 2021)
(Ferraris et al., 2023)
(Lee et al., 2023)
(Andriyanov, 2023)
(Luo et al., 2022)
(Adeniji et al., 2022)
(Sari et al., 2022)
(Wu et al., 2021)
(Adhitya et al., 2020)
(Khriji et al., 2020)
Top 10 cantidad de articulos citados por autor
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
9 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
posee tres desventajas, una de ellas es la dificultad de su aplicación asociado a la poca iluminación, luego
está el registro de velocidad al interpretar los datos y el mantenimiento de equipos que son implementados
en la VA (Quinde et al., 2021).
3.3. Fases del proceso de funcionamiento de la visión artificial
En la Figura 6, la visión artificial, posee un proceso de funcionamiento que consta de una serie de fases que
inicia desde la adquisición de imagen hasta la interpretación de los datos obtenidos.
Figura 6. Fases del proceso de funcionamiento de la VA. Tomado de (Alvear-Puertas et al., 2017)
Las fases del proceso son independientes y opcionales (Álvarez Durán, 2014). Desde la fase inicial, conocida
como adquisición de imagen, se digitaliza la imagen. Después se realiza al pre procesamiento, que facilita
la eliminación de partes de imágenes que serán innecesarias para el análisis (Véles et al., 2003) La fase de
detección de bordes, separa los datos significativos del fondo, reduciendo los datos (Shah, 1997). En la fase
de segmentación de imagen se seleccionan los pixeles en base al RGB (sigla que se conoce por Red, Green y
Blue y que es un modelo de color que representa los colores utilizando los colores primarios de la luz) y
HSV (sigla en inglés conocida como Hue, Saturation, Value y que es el modelo color que utiliza los
componentes de matiz, saturación y valor para la mezcla de colores) que permiten destacar un objeto de
color (Juan et al., 2015). La fase del reconocimiento y localización, realizan la clasificación de objetos en
base a sus características y restringen el espacio tridimensional, a través de una técnica de triangulación
que se seleccione una imagen para ser interpretada (Álvarez Durán, 2014). La última fase de la
interpretación aporta significado a los objetos identificados (Vicuña & Anelle, 2021), de tal manera que se
permita entender el contenido de la imagen o video.
3.4. Impacto en la agricultura
La VA dentro de la agricultura tuvo un incremento significativo, porque permite disminuir los costes de
producción, lo que genera que exista una reducción en los precios de equipos tecnológicos. Esta tecnología
brinda información del objeto y, sobre todo, permite el análisis de estos objetos en regiones del espectro
electromagnético, que incluye una serie de elementos imperceptibles al ojo humano y que aportan un tipo
de información a la imagen para ser utilizada en su campo de aplicación (Blasco et al., 2010; Santillán et al.,
2015).
3.5. Análisis de las preguntas de investigación
En las próximas líneas, se presentan los resultados obtenidos por un análisis cuantitativo y cualitativo de
cada pregunta señalada anteriormente. En el análisis cuantitativo se tiene en cuenta a la pregunta 1, 2, 3 y
6, puesto que se requiere listar los algoritmos, dispositivos, técnicas, librería y software utilizados en la VA
y que estén relacionados al tema de investigación; mientras que en la pregunta 4 y 5 se realiza un análisis
cualitativo, debido a que se busca descubrir la mejor técnica y algoritmo respectivamente.
Adquisición de la
Imagen Procesamiento Detección de Bordes Segmentación
Extracción de
Características
Reconocimiento y
Localización
Interpretación
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
10 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Q1: ¿Qué algoritmos de selección visual han sido utilizados para la selección de frutas?
Se tiene en cuenta, que el algoritmo es considerado una secuencia de pasos lógicos ejecutados que permiten
lograr la interpretación visual computarizada, por ese motivo, se busca identificar los algoritmos existentes
para la selección de imágenes, de tal modo que en la Tabla 4 nos da una visibilidad a la respuesta de la
interrogante.
Tabla 4.
Algoritmos de selección visual utilizados para la selección de frutas
Referencia
Algoritmo
Observación
Lee et al.
(2023)
Algoritmo de
segmentación
El algoritmo de segmentación o entrena el modelo centrándose en las
regiones de la fruta, garantizando una mejor detección, por ello divide la
imagen que tienen atributos comunes para realizar el análisis y comprensión
de la imagen.
Andriyanov
(2023);
Ferraris et al.
(2023); S. Chen
et al. (2023)
Algoritmo
YOLOv5
YOLOv5 es un algoritmo de detección de objetos que analiza la imagen una
sola vez. Su funcionamiento se basa en el uso de redes neuronales y
estructura de celdas que abordan mejor los objetos de distintos tamaños en la
imagen.
Luo et al.
(2022)
Algoritmo
YOLOv5s
YOLOv5s es una variante del algoritmo YOLOv5 enfocada a una detección
veloz con un menor uso de recursos. Su funcionamiento inicia con la
extracción de características de la imagen, generación refinada de
predicciones con su respectiva etiqueta de clase y que muestra el resultado
de la imagen en tiempo real.
Adeniji et al.
(2022)
YOLOv4-tiny
YOLOv4-tiny es una variante del algoritmo YOLO que se caracteriza por ser
rápida en la detección de objetos en tiempo real. Su funcionamiento se basa
en el uso de la red neuronal convolucional que procesa y extrae
características relevantes de la imagen para luego obtener las detecciones
más adecuadas y mostrando las imágenes de salida con las etiquetas de clase.
D. Chen et al.
(2021)
Algoritmo de
Fusión de
Imágenes
Fusión de Imágenes es un algoritmo que mejora la información visual y extrae
los conocimientos de fuentes de datos visuales múltiples y variados para
convertirla en una imagen compuesta donde se resalta las características
relevantes del objeto.
Mazzia et al.
(2020)
Algoritmo
YOLOv3-tiny
YOLOv3-tiny es un algoritmo que detecta imágenes en tiempo real. Su
funcionamiento, inicia con la extracción de características y el procesamiento
de la imagen con una precisión inferior a la versión de YOLO.
Álvarez-
Bermejo et al.
(2019)
Algoritmo
Kanny
Kanny es un algoritmo usado en visión por computadora porque detecta los
bordes en las imágenes y resalta las transiciones en la intensidad de píxeles
en la imagen. Su funcionamiento inicia con la reducción de distorsión en la
imagen para finalizar con la aplicación de umbrales y obtener contornos
significativos.
Tian et al.
(2019)
Algoritmo de
segmentación
La segmentación es un algoritmo que permite la división de la imagen en
regiones o segmentos significativos basados en características que tiene la
imagen para eliminar áreas no deseadas y conseguir identificar los objetos de
interés.
An et al.
(2022)
Algoritmo
SDNet
SDNet es un algoritmo de visión por computadora que detecta objetos en
imágenes o videos. Su funcionamiento se basa en dividir la imagen en varios
pixeles y el algoritmo aprende del modelo matemático asociando las
propiedades de la imagen con las clases de objetos.
Lawal (2021)
Algoritmo de
Supresión No
Máxima (NMS)
Supresión No Máxima es un algoritmo que elimina las detecciones repitentes
o superpuestas y sólo retiene las detecciones confiables. Su funcionamiento,
se basa en detectar las características en la imagen, calcula los puntajes de
confianza que indica que la detección es correcta y suprime las detecciones
innecesarias para conseguir un resultado adecuado.
Tran et al.
(2023)
Algoritmo de
detección de
bordes y
búsqueda de
Detección de bordes y búsqueda de contornos de Canny es un algoritmo
utilizado en la visión por computadora. Su funcionamiento se basa en reducir
las distorsiones y disminuir las variaciones en los píxeles de la imagen para
generar resultados de calidad.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
11 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
contornos de
Canny
Lai et al.
(2022); Tran et
al. (2023)
Algoritmo
YOLOv4
YOLOv4 es un algoritmo que detecta varios objetos por una sola vez en la
imagen haciéndolo rápido en la detección. Su funcionamiento se basa en
dividir la imagen en cuadrículas de celdas que se encargan de predecir la
presencia del objeto, luego extrae las características de la imagen y
finalmente elimina detecciones innecesarias para obtener un resultado
adecuado.
He et al.
(2023)
Algoritmo de
segmentación
de umbral de
Otsu
La segmentación de umbral de Otsu es un algoritmo que realiza la
segmentación automática de imágenes en varias regiones. Su funcionamiento,
inicia con la construcción del histograma de intensidad, después calcula las
varianzas para obtener el objeto y fondo que permita conseguir el mejor
umbral y tener la imagen binaria segmentada donde se resalte el objeto de
interés.
Xuan et al.
(2020)
Algoritmo
YOLOv3
mejorado
YOLOv3 mejorado es la versión del algoritmo YOLOv3 que detecta los objetos
con un modelo de aprendizaje profundo aprendiendo características
complejas y detectando objetos más pequeños con mayor velocidad,
precisión y menor cantidad de recursos.
Jaramillo-
Acevedo et al.
(2020)
Algoritmo de
umbral binario
invertido
Umbral Binario Invertido es un algoritmo que convierte la imagen en grises
en una imagen binaria. Su funcionamiento inicia con el cálculo del umbral,
que divide los píxeles de la imagen en dos grupos con píxeles claros y oscuros.
Q2: ¿Qué equipamiento informático se utiliza en las implementaciones de visión por computadora
para la selección de fruta?
En la Tabla 5, cuando nos referimos a equipamiento informático, se incluye a todos aquellos equipos
tecnológicos que permiten la realización de procesamiento de imágenes como cámaras, procesadores,
controladores, entre otros dispositivos electrónicos que son capaces de lograr el proceso de
implementación de la VA.
Tabla 5.
Equipamiento informático utilizado en implementaciones de visión por computadora para la selección de
frutas
Referencia
Equipamiento
informático
Observación
Lee et al.
(2023)
Cámara industrial
Sensor de luz
Nvidia Jetson Nano
La cámara industrial es un dispositivo que posee una resolución de 5MP
con una velocidad de 35 fotogramas y que permite capturar las
imágenes de frutas.
El sensor de luz es el componente que realiza la medición de la
intensidad de luz y corrige las variaciones de iluminación en la escena.
El Nvidia Jetson Nano es una computadora utilizada en VA que ejecuta,
entrena, infiere y despliega modelos de aprendizaje automático.
Andriyanov
(2023)
Raspberry Pi 4
Cámara estéreo ZED
2
computadora ASUS
FX 504
Tarjeta Nvidia
GeForce 1060
Raspberry Pi 4 es un ordenador de placa única que proporciona una
solución compacta en tareas de procesamiento de imágenes en tiempo
real, la detección de objetos y el control de dispositivos que capturan las
imágenes.
Cámara estéreo ZED 2 es un cámara 3d que tienen dos lentes separados
que capturan las imágenes desde distintos ángulos, lo que permite
medir la profundidad y distancia a los objetos en escena.
Computadora ASUS FX 504 es una computadora portátil que es utilizada
en la tarea de desarrollo, entrenamiento del modelo de aprendizaje
profundo y ejecuciones de aplicaciones de VA.
Tarjeta Nvidia GeForce 1060 es una unidad de procesamiento gráfico
que permite acelerar el entrenamiento y la inferencia de modelos de
aprendizaje profundo.
Luo et al.
(2022)
Cámara Microsoft
Azure Kinect RGB-D
La cámara Microsoft Azure Kinect RGB-D es un dispositivo que es
utilizado en implementaciones de visión por computadora para
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
12 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
capturar la información del color y la profundidad obteniendo una
mejor comprensión de la escena.
Adeniji et al.
(2022)
Arduino
ATmega328P
Cámara IP
Sensor de
temperatura/hume
dad (DHT11)
Sensor de gas (MQ-
3)
Módulo WiFi
(ESP8622)
Arduino ATmega328P es un microcontrolador utilizado en la placa
Arduino Uno que interactúa con la visión por computadora.
Cámara IP es una cámara de video que se conecta a una red IP
(Protocolo de Internet) y que transmite video y datos mediante la red.
Su uso se basa en capturar las imágenes que serán procesados con el
algoritmo de visión por computadora.
Sensor de temperatura/humedad (DHT11) es utilizar para medir la
temperatura y humedad en el entorno y capturar los datos que es
utilizado en la aplicación.
Sensor de gas (MQ-3) se utiliza para detectar concentraciones de gases
en el aire.
Módulo Wifi (ESP32) son dispositivos que permiten la conectividad
inalámbrica a redes WiFi y que son el medio para el envío de datos.
Sari et al.
(2022)
Motor tipo MG955 y
MG90S
Celda de carga
conectada al modelo
HX711
Arduino Uno
Cámara web 720p
Los motores MG955 y MG90S son servomotores que se utilizan en la
aplicación de automatización para controlar la posición del objeto.
La celda de carga conectada al módulo HX711 es un sensor que mide las
fuerzas o pesos y es utilizado para amplificar la señal de la celda de
carga y convertirla en valores digitales.
El Arduino Uno es el microcontrolador que permite la programación y el
control de dispositivos electrónicos. Este dispositivo es utilizado como
interfaz entre el sistema y el dispositivo físico.
La cámara web de 720p es un dispositivo que captura las imágenes para
su procesamiento por el algoritmo de visión.
Wu et al.
(2021)
UPC: Intel Xeon
GPU: Tesla K80
La UPC (Intel Xeon) es el dispositivo principal de la computadora que
realiza operaciones de procesamiento de imágenes.
La GPU Tesla K80 es una unidad de procesamiento utilizada en la
aceleración de tareas de procesamiento de imágenes.
Adhitya et al.
(2020)
Computadora
portátil Intel Core i5
de doble núcleo a
2,7 GHz con 8 GB de
RAM DDR3 a 1867
MHz.
El procesador Intel Core i5 es una unidad de procesamiento central que
se utiliza en la ejecución del algoritmo de visión y procesamiento de
imágenes.
Khriji et al.
(2020)
Dispositivo FPGA
SoC Zynq 7020
El dispositivo FPGA es un tipo de dispositivo lógico que acelera la
extracción de características de imágenes y procesa grandes cantidades
de datos de imágenes en tiempo real.
El SoC - Zynq 7020 es un dispositivo que combina componentes de
hardware y software para realizar tareas de procesamiento de
imágenes y visión.
Wang et al.
(2020)
Cámara de vídeo
esférica inteligente
CMOS
La cámara de video esférica CMOS es el dispositivo que captura
imágenes y videos en todas las direcciones. Su funcionamiento, se
producen con los lentes que tienen para que fusionen la imágenes y se
pueda presentar el contenido en una vista panorámica completa.
Mazzia et al.
(2020)
Raspberry Pi 3 B+
con Intel NCS2 y
Movidius NCS
NVIDIA Jetson AGX
Xavier
El Raspberry Pi 3B+ es una serie de placas de computadora que
funciona procesando modelos de aprendizaje profundo y acelerando la
inferencia de red neuronal con el Intel NCS2 y Movidius NCS.
El NVIDIA Jetson AGX Xavier es una computadora de altor rendimiento
que ejecuta algoritmos de aprendizaje profundo.
Álvarez-
Bermejo et al.
(2019)
Teléfono inteligente
Cámara CCD
El teléfono inteligente es un dispositivo que captura las imágenes
mediante su cámara y son visualizadas desde su pantalla.
La cámara CCD es un tipo de sensor de imagen utilizado en la captura de
imágenes digitales que son procesados en la tarea de análisis de
reconocimiento y toma de decisiones.
Li et al. (2020)
Kinect V2
Cámara RGB-D
Cámara infrarroja
Kinect V2 es un dispositivo que combina una cámara RGB con una
cámara de profundidad que permite la captura de información visual de
una escena.
La cámara RGB-D es un tipo de cámara que captura las imágenes en
color como información de profundidad permitiendo una detección de
objetos.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
13 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
La cámara infrarroja es el dispositivo que captura las imágenes para
detectar la temperatura de objetos con radiación térmica.
Tian et al.
(2019)
Kinect V2
Kinect V2 es un dispositivo que combina una cámara RGB con una
cámara de profundidad que permite la captura de información visual de
una escena.
Miraei Ashtiani
et al. (2021)
cámara digital
(Nikon D3200
24.2MP CMOS)
lámpara
fluorescente circular
La cámara digital Nikon D3200 es un dispositivo que es utilizado para la
adquisición de imágenes de objetos que son procesados mediante el
algoritmo de visión por computadora.
La lámpara fluorescente circular es una fuente de iluminación que
proporciona luz continua y uniforme en la escena para garantizar que el
objeto sea visible en la imagen.
Tang et al.
(2020)
Cámara de imágenes
hiperespectrales
(GaiaSky-Mini)
lámparas halógenas
ELC de 50 W
Ordenador personal
La cámara de imágenes hiperespectrales (GaiaSky-Mini) captura
imágenes en escena para recuperar datos utilizando algoritmos de
visión por computadora.
Las lámparas halógenas ELC de 50w proporcionan iluminación brillante
y continua para garantizar que el objeto sea visible.
El ordenador personal es un dispositivo utilizado en el procesamiento
de datos y ejecución de algoritmos de visión por computadora.
S. Chen et al.
(2023)
Dispositivo móvil
GPU NVIDIA RTX
2060 Super 8G
CPU Intel i5-12400F
a 2,5 GHz
El dispositivo móvil es un aparato que permite capturar imágenes
digitales en color y en una determinada resolución de píxeles. Su
funcionamiento es básicamente utilizar el aplicativo propio del
dispositivo para capturar imágenes y almacenarlas en la memoria.
La GPU NVIDIA RTX 2060 Super 8G es una unidad de hardware de
procesamiento paralelo diseñado para realizar operaciones como el
entrenamiento del modelo de aprendizaje automático.
El CPU Intel i5-12400F 2.5 GHz es el procesador de la computadora que
realiza la tarea de procesamiento de imágenes.
Castro et al.
(2019)
Cámara web VGA
Tubos fluorescentes
(Philips TL-D Super
y Philips GX23 PH-
T9)
Computadora
personal (Intel
Pentium CPU de
doble núcleo T4200
a 2,00 GHz y 3,0 GB
de RAM)
La cámara web VGA es un dispositivo que captura imágenes con una
resolución de 640 x 480 píxeles y que captura los datos visuales de la
escena.
Los tubos fluorescentes (Philips TL-D Super y Philips GX23 PH-T9)
proporcionan iluminación en entornos controlados con el objetivo de
garantizar que las imágenes sean claras y nítidas.
La computadora personal (Intel Pentium CPU de doble núcleo T4200 a
2,00 GHz y 3,0 GB de RAM) es un dispositivo que permite el
procesamiento de datos y análisis de imágenes.
Zhang & Gao
(2019)
cámara con
semiconductor
complementario de
óxido metálico
(CMOS) 1/2 5"
La cámara CMOS de 1/2 5" es un tipo de sensor de imagen que tiene la
cámara digital y permite la captura de imágenes en la escena de interés.
Aiadi et al.
(2022)
Cámara web
La cámara web es un dispositivo de captura de imágenes y videos que se
conecta a la computadora para captura imágenes de la escena para su
posterior procesamiento.
An et al. (2022)
Teléfono inteligente
(Iphone11)
El teléfono inteligente (iPhone 11) es un dispositivo equipado con un
cámara capaz de capturar imágenes en alta calidad que son procesadas
en la aplicación para reconocer objetos.
Lawal (2021)
CPU Intel-Core i7-
8700 @ 64-bit 3.20
GHz: 16 GB de RAM
GPU NVIDIA
GeForce GTX 1080Ti
La CPU Intel Core i7-8700 es un procesador que se encargan de ejecutar
tareas específicas en la aplicación de visión por computadora.
La GPU NVIDIA GeForce GTX 1080 Ti es una tarjeta gráfica que ayuda en
el procesamiento de imágenes.
Khattak et al.
(2021)
Dispositivo móvil
El dispositivo móvil es un aparato que permite capturar imágenes
digitales en color y en una determinada resolución de píxeles. Su
funcionamiento es básicamente utilizar el aplicativo propio del
dispositivo para capturar imágenes y almacenarlas en la memoria
interna del aparato.
Tran et al.
(2023)
Cámara digital
(CANON EOS 60D
La cámara digital CANON EOS 60D con lente Tamron 17-50 es el
dispositivo que captura imágenes en una escena.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
14 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
con lente Tamron
17-50)
Dos tubos de luz
LED envolventes
CPU INTEL CORE I7
(décima generación)
y 16 GB de RAM
Los tubos de luz LED son dispositivos que permiten la mejora de la
calidad de imágenes y mejorar el procesamiento de imágenes.
El CPU Intel Core i7 de décima generación y 16 GB de RAM es la unidad
de procesamiento de alto rendimiento que se utiliza para ejecutar
algoritmos de procesamiento de imágenes.
Liu et al.
(2020)
Cámara RGB-D
CPU Intel Core i7-
8750H (4,1 GHz) de
seis núcleos, una
GPU NVIDIA GTX
1060 de 6 GB y 8 GB
de memoria
Kinect V2
La cámara RGB-D es un dispositivo que captura la información de color
como datos de profundidad de los objetos en la escena.
El CPU Intel Core i7-8750H es el procesador que se encarga de ejecutar
los algoritmos de procesamiento de imágenes.
El Kinect V2 es un dispositivo que proporciona los datos
tridimensionales y en color del objeto.
Suharjito et al.
(2023)
Teléfono inteligente
El teléfono inteligente es un dispositivo que captura las imágenes
mediante su cámara y son visualizadas desde su pantalla.
Lai et al.
(2022)
Cámara Intel
Realsense D435
Procesador Core i7-
8750H
Tarjeta gráfica
GeForce DTX 1070
La cámara Intel RealSense D435 es una cámara de profundidad que
captura imágenes en color y datos de profundidad consiguiendo un
mapa tridimensional de la escena.
El procesador Core i7-8750H es un procesador que permite realizar y
gestionar acciones en el procesamiento de imágenes.
La tarjeta gráfica GeForce GTX1070 es un dispositivo que apoya en el
procesamiento y análisis de grandes volúmenes de datos visuales.
Wang et al.
(2020)
Cámara de vídeo
esférica inteligente
CMOS (DS-
2DC4220IW-D)
Router
Computadora de
escritorio con
Windows 7
La cámara de video esférica CMOS es el dispositivo que captura
imágenes y videos en todas las direcciones. Su funcionamiento se
producen con los lentes que tienen para que fusionen las imágenes y se
pueda presentar el contenido en una vista panorámica.
El router es un dispositivo de red que posibilita la conexión de varios
dispositivos en la red y proporciona el acceso a redes para realizar la
transferencia de datos.
La computadora de escritorio con Windows 7 es una computadora
personal que se utiliza para ejecutar software de visión por
computadora que realiza tareas de procesamiento de imágenes.
Xuan et al.
(2020)
Cámara Iphone 7
plus
La cámara del Iphone 7 plus permite la captura de imágenes en alta
resolución y permite recopilar los datos visuales para su posterior
procesamiento de datos en la visión por computadora.
Jaramillo-
Acevedo et al.
(2020)
Teléfono Android
El teléfono Android es un dispositivo móvil que está equipado con una
cámara que es utilizado en la captura de imágenes para realizar tareas
de reconocimiento de objetos.
Davur et al.
(2023)
Cámara de escáner
de línea de 12 bits
luces halógenas
La cámara de escáner de línea de 12 bits es un dispositivo de captura de
imágenes utilizado en la obtención de imágenes de alta calidad por su
gama de niveles de intensidad de luz.
Las luces halógenes son fuentes de iluminación que emiten luz brillante
y uniforme en la escena donde se captura las imágenes.
Cho et al.
(2021)
Cámara de Iphone
5s
La cámara del Iphones 5s es el dispositivo que captura imágenes de alta
calidad y que es utilizado para su procesamiento con el uso del
algoritmo de visión por computadora.
Cho et al.
(2020)
Cámara de Iphone
5s
La cámara del Iphones 5s es el dispositivo que captura imágenes de alta
calidad y que es utilizado para su procesamiento con el uso del
algoritmo de visión por computadora.
Q3: ¿Qué modelos de Inteligencia Artificial se utilizan para la descripción y detección de
características de las frutas?
En la Tabla 6, se muestra que la VA comprende modelos modernos que permiten el análisis e interpretación
de imágenes y entrenamiento de la data obtenida, por este motivo, se busca obtener todos los enfoques
asociados a esta ciencia que participen directa o indirectamente en su aplicación.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
15 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Tabla 6.
Modelos de Inteligencia Artificial utilizados en la descripción y detección de características de frutas
Referencia
Modelo
Observación
(Ferraris et al.,
2023)
Modelo YOLOv5m
El modelo YOLOv5m es una versión de YOLOv5 que utiliza una red
neuronal convolucional en la detección de objetos en imágenes de
manera eficiente y precisa.
Lee et al.
(2023)
RegNetY-8.0GF (R8)
RegNetY-32GF (R32)
EfficientNet-B4 (EB4)
EfficientNet-B6 (EB6)
ResNet18
RegNetY-8.0GF (R8) y RegNetY-32GF (R32) son distintas variantes
del RegNet que son eficientes en las redes neuronales.
EfficientNet-B4 (EB4) y EfficientNet-B6 (EB6) son modelos
caracterizados por el rendimiento en las tareas que realizan en
visión por computadora.
ResNet18 es un modelo que tiene 18 capas y permiten el
entrenamiento de redes profundas con eficiencia.
Andriyanov
(2023)
Modelo Yolov5
El modelo de YOLOv5 es utilizado en la detección de objetos en
tiempo real de manera rápida y precisa.
Luo et al.
(2022)
YOLOX-Nano
PP-YOLO-Tiny
EfficientDet-D0
Yolov5 mejorado
YOLOX-Nano es una evolución de YOLO que se encarga de mejorar la
velocidad y la eficiencia manteniendo un elevado rendimiento en la
detección de objetos.
PP-YOLO-Tiny es la versión ligera y rápida de YOLO enfocado en
mejorar la precisión de la detección de objetos en tiempo real.
EfficienteDet-DO es una variante ligera de la arquitectura
EfficientDet-do que logra el equilibrio entre la eficiencia y
rendimiento.
YOLOv5 mejorado es un modelo que incorpora técnicas de
entrenamiento para la mejora en la precisión y rendimiento en
tareas de detección de objetos.
Adeniji et al.
(2022)
Modelo YOLOv4-tiny
YOLOv4-tiny es el modelo compacta de YOLOv4 que se utiliza en la
detección de objetos en tiempo real con menor cantidad de
parámetros entrenables, haciéndolo más rápido con escasos
recursos a nivel de hardware.
D. Chen et al.
(2021)
Modelo SSD mejorado
Modelo R-CNN (Red
neuronal
convolucional)
El SSD es un modelo de detección de varios objetos en tiempo real
que divide la imagen en cuadrículas de celdas y realiza la
clasificación y regresión en distintos tamaños y formas para obtener
detecciones adecuadas.
El R-CNN es un modelo que divide el proceso de detección en dos
partes: generación de regiones de la imagen que contiene objetos y
clasifica el objeto presente en la región, de tal manera que genere
una mayor precisión en la detección de objetos.
Wu et al.
(2021)
Modelo YOLOv4
El modelo YOLOv4 es utilizado para la detección de objetos en
tiempo real que divide la imagen en cuadrícula de celdas obteniendo
una mejor velocidad y precisión.
Wang et al.
(2020)
ResNet-50
El modelo ResNet-50 es una variante del ResNet que extrae
características de imágenes y resuelve el problema del
desvanecimiento de gradientes en redes neuronales profundas.
Mazzia et al.
(2020)
Modelo YOLOv3-tiny
El modelo YOLOv3-tiny es una versión reducida del YOLOv3 que
detecta los objetos en tiempo real y con mayor velocidad, por eso
divide la imagen en cuadrículas para mejorar la precisión y evitar
duplicaciones en las detecciones.
Li et al. (2020)
Deeplabv3
El modelo Deeplabv3 se basa en redes neuronales convolucionales
profundas para obtener características de la imagen con mejor
precisión en la segmentación y etiquetas a cada píxel de una imagen
indicando la categoría a la que pertenece.
Miraei Ashtiani
et al. (2021)
ResNet-18
El modelo ResNet-18 es una variante específica de ResNet que
clasifica y entrena redes neuronales profundas. Este modelo
resuelve el problema de gradientes que extraen características en
distintos niveles de abstracción mediante un proceso de reducción
del peso de la conexión de red para minimizar el error.
Tang et al.
(2020)
Modelo ECOC-SVM
El modelo ECOC-SVM son clasificadores binarios que resuelven
problemas de clasificación asignando una etiqueta a cada clase
dividiendo el problema en partes pequeñas y fáciles de resolver.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
16 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
S. Chen et al.
(2023)
YOLOv5 mejorado
El modelo YOLOv5 mejorado es una mejora del modelo YOLOv5 que
tiene un rendimiento y alta precisión en la detección de objetos.
Castro et al.
(2019)
Combinación del
modelo Espacio de
color con modelo SVM
El conjunto de técnicas que se aplican a los datos o señales antes de
su análisis sirven para mejorar la calidad, eliminar ruido y
artefactos, y prepararlos adecuadamente para obtener resultados
más precisos y confiables en estudios y aplicaciones científicas y
tecnológicas.
Aiadi et al.
(2022)
K-vecino más cercano
(KNN)
Máquina de vectores de
soporte (SVM)
Árboles de decisión
(DT)
El modelo KNN es utilizado en la clasificación de imágenes que busca
los K puntos de datos más cercanos en el entrenamiento y toma una
decisión basada en las clases de clasificación y regresión.
El modelo SVM es un algoritmo de clasificación que encuentra la
separación entre dos clases en un espacio multidimensional. El
modelo maximiza el margen entre clases para transformar los datos
en un espacio de características no lineales.
El modelo DT se utiliza en la clasificación de imágenes que
construyen y dividen el conjunto de datos en base a las
características particulares y criterios que maximizan la clase
generando predicciones dividiendo el espacio de características en
regiones.
An et al. (2022)
SDNet
El modelo SDNet es un modelo de reconocimiento de imágenes que
reduce el número de parámetros del modelo siendo eficiente en
recursos y rápido en el entrenamiento.
Lawal (2021)
YOLOMuskmelon
YOLOMuskmelon es el modelo enfocado en la detección de melones
que ha sido enfocado en la mejora del rendimiento en la detección
del fruto con diversos tamaños y formas y con una alta precisión.
Khattak et al.
(2021)
CNN
CNN o el modelo de red neuronal convolucional es un tipo de red
utilizada en tareas de reconocimiento de patrones como la
clasificación de imágenes que permite detectar las características
complejas del objeto y realizar reconocimiento con precisión.
Suharjito et al.
(2023)
YOLOv4 mejorado
YOLOv4 mejorado es una variante de la versión del modelo YOLOv4
que se utiliza en la detección de objetos con un alto adaptamiento a
condiciones de iluminación, precisión y velocidad.
Lai et al.
(2022)
YOLOv4
El modelo YOLOv4 es utilizado para la detección de objetos en
tiempo real que divide la imagen en cuadrícula de celdas obteniendo
una mejor velocidad y precisión.
Wang et al.
(2020)
ResNet-50
El modelo ResNet-50 es una variante del ResNet que extrae
características de imágenes y resuelve el problema del
desvanecimiento de gradientes en redes neuronales profundas.
Xuan et al.
(2020)
YOLOv3 mejorado
YOLOv3 mejorado es el modelo enfocado en la detección de objetos
que tiene una alta precisión, velocidad y adaptable a distintas
condiciones ambientales por la arquitectura de red neuronal que
emplea.
Jaramillo-
Acevedo et al.
(2020)
Modelo de perceptrón
multicapa (MLP)
El LP es un modelo que tiene múltiples capas de neuronas y posee
una matriz de datos que le permite realizar una predicción del
modelo mediante las capas que generan un proceso iterativo con
precisión.
Cho et al.
(2021)
Modelo ANN
La ANN (Red Neuronal Artificial) es un modelo que tiene una red de
unidades de procesamiento que se organizan en tres capas para
realizar la propagación de los datos hasta lograr la precisión en las
predicciones.
Cho et al.
(2020)
Modelo SVR
El modelo SVR (Support Vector Regression) es el modelo que
encuentra la mejor función que se ajuste a un conjunto de datos,
minimizando el error de la predicción. Su funcionamiento se inicia
con la selección de características relevantes, el mapeo de los datos
en una dimensión para entrenar el modelo y encontrar una función
cercana a los datos y con menor error para utilizar en predicción de
futuros datos.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
17 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Q4: ¿Qué modelo de Inteligencia Artificial ha tenido el mejor resultado con respecto a la descripción
y detección de características de las frutas?
De todos los modelos visualizados previamente, se identifican en la Tabla 7, los mejores enfoques de VA
que proporcionan una precisión en la detección superior al 90%. Estas técnicas, fueron identificadas en
cada estudio, donde se demostró en sus conclusiones generalmente, la óptima respuesta que tuvo en
comparación con otras técnicas utilizadas en el campo de estudio.
Tabla 7.
Modelos de Inteligencia Artificial con mejor resultado
Referencia
Modelo
Observación
Ferraris et al.
(2023)
Modelo YOLOv5m
El modelo detecta las frutas sanas en tiempo real con un 98%, sin
embargo, presenta dificultades para diferenciar enfermedades del
fruto.
Lee et al. (2023)
RegNetY-8.0GF (R8)
RegNetY-32GF (R32)
EfficientNet-B4 (EB4)
EfficientNet-B6 (EB6)
ResNet18
El modelo ResNet18 tiene la mejor precisión con un valor
equivalente al 94,48% a diferencia de los otros modelos utilizados.
Andriyanov
(2023)
Modelo Yolov5
Se observa que el modelo con su variación Yolov5x6+ (1280px)
logra un mayor porcentaje en detección de las manzanas rojas con
un 97,96% y con las manzanas verdes logra una detección del
95,38%
Luo et al. (2022)
YOLOX-Nano
PP-YOLO-Tiny
EfficientDet-D0
Yolov5 mejorado
De todos los modelos utilizados, se indica que el Yolov5 mejorado
tiene un mejor resultado al proporcionar una precisión del 95,32%
de los melocotones.
D. Chen et al.
(2021)
Modelo SSD mejorado
Modelo R-CNN (Red
neuronal
convolucional)
El modelo SSD mejorado destaca por obtener una precisión del
93,74% en el reconocimiento de madurez de la fruta.
(Wu et al., 2021)
Modelo YOLOv4
El modelo durante las pruebas obtiene una precisión del 98,22% en
la detección de manzanas.
Miraei Ashtiani
et al. (2021)
ResNet-18
El modelo logra una precisión equivalente al 98,65% en la
clasificación con 60 épocas mayor que los otros modelos
comparados.
S. Chen et al.
(2023)
YOLOv5 mejorado
El modelo propuesto logra una precisión del 93,3% con respecto a la
fresa.
An et al. (2022)
SDNet
El modelo de detección logra el monitoreo de los frutos con una
precisión del 94,26%.
Khattak et al.
(2021)
CNN
El modelo CNN alcanza el mejor nivel de precisión con un 94,55%
que otros modelos estudiados.
Suharjito et al.
(2023)
YOLOv4 mejorado
El modelo demuestra que funciona mejor que otros modelos en
comparación con una precisión del 97%.
Xuan et al.
(2020)
YOLOv3 mejorado
El modelo tuvo un mejor de efecto de precisión del 97,9% en el
reconocimiento de manzanas rojas y un 97,6% en el reconocimiento
de manzanas verdes.
Q5: ¿Qué algoritmos de selección visual tienen una mejor performance en la selección de frutas?
La VA al comprender algoritmos que consigan un funcionamiento adecuado se hace necesario
identificarlos, ver la Tabla 8, en los estudios analizados cuales tienen un mejor rendimiento en el
procesamiento, extracción y análisis de información para que la máquina pueda comprender el entorno
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
18 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
visual sin problemas. Por ello, se consideran aquellos algoritmos que tengan un porcentaje en la precisión
en el reconocimiento superior al 85% que demuestre superioridad frente a otros algoritmos.
Tabla 8.
Algoritmos de selección visual que tienen mejor performance en la selección de frutas
Referencia
Algoritmo
Observación
Lee et al. (2023)
Algoritmo de
segmentación
El algoritmo garantiza un proceso detección de defectos con una
alta precisión, logrando que el sistema obtenga una velocidad de
procesamiento en 2.84 segundos y una precisión del 93,83%.
Luo et al. (2022)
Algoritmo Yolov5s
El algoritmo Yolov5s ofrece una precisión del 95,32% en la
detección de los frutos con distintas mediciones.
Adeniji et al.
(2022)
YOLOv4-tiny
El algoritmo YOLOv4-tiny logra detectar una precisión aproximada
del 88,10% y una pérdida del 0.3 en las sandías.
Tian et al. (2019)
Algoritmo de
segmentación
El algoritmo de segmentación propuesto obtiene una precisión del
96,61% en el reconocimiento del fruto.
S. Chen et al.
(2023)
Algoritmo YOLOv5
El algoritmo YOLOv5 propuesto muestra una mayor precisión con
un 93,3% y menor FLOP.
An et al. (2022)
Algoritmo SDNet
El algoritmo alcanza una precisión de detección promedio
equivalente al 93,15% superando a otros algoritmos como el
YOLOv4, YOLOv5 y STr ( Swin Transformer).
He et al. (2023)
Algoritmo de
segmentación de
umbral de Otsu
El algoritmo indica una precisión superior 90,95% al realizar
varias pruebas con un error de coordinación del 8%.
Lai et al. (2022)
Algoritmo YOLOv4
El algoritmo obtiene una precisión del 95% y una recuperación del
82% en la detección en tiempo real de racimos de frutas.
Xuan et al. (2020)
Algoritmo YOLOv3
mejorado
El algoritmo posee un mejor rendimiento en la superposición, una
tasa de recuperación de reconocimiento superior al 88,5% y una
precisión superior al 97,5%.
Jaramillo-Acevedo
et al. (2020)
Algoritmo de umbral
binario invertido
El algoritmo proporciona una precisión del 88% siendo
conveniente para la detección visual del estado de madurez del
fruto.
Q6: ¿Qué librerías o software de visión por computadora existen para la selección visual de frutas?
Cuando se menciona en la pregunta, se toma en cuenta que el término librería o software abordan las
mismas necesidades específicas del estudio de investigación, de esta manera, se hace necesario encontrar
todas aquellas herramientas predefinidas, ver la Tabla 9, que proporcionen diversas funcionen que realicen
tareas en la implementación de la VA, sin esto no se podría mejorar el tiempo y esfuerzo, siendo una base
para el desarrollo de la tecnología.
Tabla 9.
Librerías de visión por computadora existentes en la selección visual de paltas
Referencia
Librería o
Software
Observación
Ferraris et al. (2023);
Khattak et al. (2021)
Keras
Tensorflow
Keras es una interfaz que funciona en el desarrollo de redes
neuronales, de tal manera que permite definir, compilar, entrenar y
evaluar modelos de redes neuronales.
TensorFlow es una librería de código abierto que sirve para construir
y entrenar modelos de aprendizaje automático. Esta librería funciona
definiendo, compilando, entrenando, evaluando el modelo para la
predicción y despliegue.
An et al. (2022); S. Chen
et al. (2023); Lee et al.
(2023); Luo et al. (2022);
Wu et al. (2021)
TensorRT
Pytorch
TensorRT es una biblioteca de inferencia de aprendizaje profundo que
utiliza NVIDIA. Su funcionamiento consiste en optimizar y acelerar la
inferencia de los modelos haciéndolo más eficiente.
Pytorch es una biblioteca de aprendizaje profundo que funciona
brindando herramientas e infraestructura al desarrollador de tal
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
19 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
modo que construya, entrene y despliegue modelos de aprendizaje
profundo.
Adeniji et al. (2022); He
et al. (2023); Jaramillo-
Acevedo et al. (2020); Li
et al. (2020); Sari et al.
(2022); Tran et al. (2023)
Open CV
OpenCV es una biblioteca de código abierto diseñada para el
procesamiento de imágenes y visión por computadora. Proporciona
una diversidad de funciones y algoritmos para manipular y analizar
imágenes y videos.
Álvarez-Bermejo et al.
(2019)
OpenCV
BoofCV
OpenCV es una librería de código abierto que brinda una variedad de
funciones y algoritmos para el procesamiento de imágenes. Su
funcionamiento se basa en ofrecer un conjunto de funciones y
algoritmos predefinidos que permiten ejecutar tareas relacionadas a
la visión por computadora.
BoofCV es una librería de código abierto enfocada en algoritmos de
alto rendimiento que permiten la detección y seguimiento de objetos.
Esta librería utiliza algoritmos que pueden ser personalizados y ser
extendidos en temas de funcionalidad.
Lawal (2021)
cuDNN
7.6.5
openCV
4.2.0
cuDDN es una biblioteca de software que optimiza y acelera las
operaciones en redes neuronales, logrando un entrenamiento
eficiente.
OpenCV es una biblioteca de código abierto diseñada para el
procesamiento de imágenes y visión por computadora. Proporciona
una diversidad de funciones y algoritmos para manipular y analizar
imágenes y videos.
Xuan et al. (2020)
CUDNN
cuDDN es una biblioteca de software que optimiza y acelera las
operaciones en redes neuronales, logrando un entrenamiento
eficiente.
Cho et al. (2020, 2021)
Scikit-image
OpenCV
Scikit-image es una biblioteca utilizada en visión por computadora
que permite realizar el preprocesamiento de datos de las imágenes
digitales. Su funcionamiento se basa en brindar una serie de
herramientas y funciones para realizar operaciones de procesamiento
y análisis de imágenes en el lenguaje de programación Python.
OpenCV es una biblioteca de código abierto diseñada para el
procesamiento de imágenes y visión por computadora. Proporciona
una diversidad de funciones y algoritmos para manipular y analizar
imágenes y videos.
Los resultados de la presente revisión sistemática revelan un panorama variado en el uso de algoritmos de
VA aplicados en la identificación de frutos en el sector agrícola. Si bien la identificación de diversos
algoritmos, modelos y equipos informáticos señalan logros significativos que dirigen hacia la necesidad de
abordar la dependencia de factores específicos y mejorar la adaptabilidad a distintas condiciones.
Propuestas constructivas incluyen el desarrollo de mecanismos de aprendizaje continuo, integración de
tecnologías e implementación de iniciativas que fomenten la aceptación y comprensión de la VA en la
selección de frutas con distintos escenarios cambiantes, que apuntan a una evaluación positiva en la
aplicación en la agricultura, destacando la importancia de la adaptación e innovación continua.
CONCLUSIONES
Los resultados de la revisión revelan 32 algoritmos, esto evidencia su uso en aplicaciones de la VA en el
sector agrícola, en la identificación de frutos. Entre los más eficientes se tiene al algoritmo YOLOv3
mejorado, capaz de reconocer frutas en fondos de imágenes complejos, por ello, su reconocimiento es
dependiente de los factores de precisión y características que tiene el fruto a analizar. Además, se
identifican 32 equipamientos informáticos utilizados en dichas implementaciones, adaptados a requisitos
y objetivos específicos según el ambiente donde se utilicen, por lo que resulta necesario conocerlos para
posibles trabajos en detección y análisis de imágenes digitales.
Entre los algoritmos expuestos anteriormente se encuentran algunos ideales en la identificación y selección
de frutos por su calidad de precisión. El algoritmo de segmentación propuesto se distingue con una
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
20 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
precisión del 96,61%, al igual que el algoritmo YOLOv5s logra una precisión del 95,32% donde se destaca
en la identificación de frutos con distintas dimensiones. Asimismo, el YOLOv3 mejorado presenta un
rendimiento superior con una tasa de recuperación del 88,5% y una precisión superior al 97,5%. Estos
algoritmos, junto con el YOLOv4 logran detectar las frutas en tiempo real, siendo opciones prometedoras
de alta calidad en aplicaciones de VA. El artículo evidencia los elementos clave en las implementaciones del
tema respectivo, además de la apertura de áreas para próximas investigaciones como la exploración de
optimización de algoritmos en la identificación de frutas específicas, considerando sus características
únicas. Inclusive, se sugiere la investigación de la aplicación en tiempo real y en entornos agrícolas, la
detección de defectos en frutas, generalización a nuevas variedades y la incorporación de novedosas
tecnologías.
FINANCIAMIENTO
El autor no recibió patrocinio para llevar a cabo este estudio-artículo.
CONFLICTO DE INTERESES
No existe ningún tipo de conflicto de interés relacionado con la materia del trabajo.
CONTRIBUCIÓN DE LOS AUTORES
Conceptualización: Parraga-Badillo, S. R. y Coral-Ygnacio, M. A.
Curación de datos: Parraga-Badillo, S. R. y Coral-Ygnacio, M. A.
Análisis formal: Parraga-Badillo, S. R. y Coral-Ygnacio, M. A.
Investigación: Parraga-Badillo, S. R.
Administración del proyecto: Parraga-Badillo, S. R.
Software: Parraga-Badillo, S. R.
Supervisión: Parraga-Badillo, S. R. y Coral-Ygnacio, M. A.
Validación: Parraga-Badillo, S. R.
Visualización: Parraga-Badillo, S. R.
Redacción-borrador original: Parraga-Badillo, S. R.
Redacción - revisión y edición: Parraga-Badillo, S. R.
REFERENCIAS BIBLIOGRÁFICAS
Adeniji, K. A., Onibonoje, M. O., Minevesho, A., Ejidokun, T., & Omitola, O. O. (2022). A robust 4.0 dual-
classifier for determining the internal condition of watermelons using YOLOv4-tiny and sensory.
Indonesian Journal of Electrical Engineering and Computer Science, 28(3), 18341844.
https://doi.org/10.11591/ijeecs.v28.i3.pp1834-1844
Adhitya, Y., Prakosa, S. W., Köppen, M., & Leu, J. S. (2020). Feature extraction for cocoa bean digital image
classification prediction for smart farming application. Agronomy, 10(11).
https://doi.org/10.3390/agronomy10111642
Aguilar Alvarado, V., & Campoverde Molina, M. A. (2019). Classification of fruits based on convolutional
neural networks Classificação de frutos com base em redes neurais convolucionais Ciencias de la
ingeniería Artículo de investigación. Polo Del Conocimiento: Revista Científico - Profesional, ISSN-e
2550-682X, Vol. 5, No. 1, 2020, Págs. 3-22, 5(01), 322. https://doi.org/10.23857/pc.v5i01.1210
Aiadi, O., Khaldi, B., Kherfi, M. L., Mekhalfi, M. L., & Alharbi, A. (2022). Date Fruit Sorting Based on Deep
Learning and Discriminant Correlation Analysis. IEEE Access, 10(August), 7965579668.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
21 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
https://doi.org/10.1109/ACCESS.2022.3194550
Álvarez-Bermejo, J. A., Morales-Santos, D. P., Castillo-Morales, E., Parrilla, L., & López-Ramos, J. A. (2019).
Efficient image-based analysis of fruit surfaces using CCD cameras and smartphones. Journal of
Supercomputing, 75(3), 10261037. https://doi.org/10.1007/s11227-018-2284-y
Álvarez Durán, M. A. (2014). Análisis, diseño e implementación de un sistema de control de ingreso de
vehículos basado en visión artificial y reconocimiento de placas en el parqueadero de la Universidad
Politécnica Salesiana - Sede Cuenca. Universidad Politécnica Salesiana.
http://dspace.ups.edu.ec/handle/123456789/7060
Alvear-Puertas, V., Rosero-Montalvo, P., Peluffo-Ordóñez, D., & Pijal-Rojas, J. (2017). Internet de las Cosas
y Visión Artificial, Funcionamiento y Aplicaciones: Revisión de Literatura. Enfoque UTE, 8(1), 244
256. https://doi.org/10.29019/enfoqueute.v8n1.121
Amaya-Zapata, S., Pulgarín-Velásquez, D., & Torres-Pardo, Í. D. (2016). Desarrollo e Implementación de un
Sistema de Visión Artificial Basado en Lenguajes de Uso Libre para un Sistema Seleccionador de
Productos de un Centro Integrado de Manufactura (CIM). Lámpsakos, 15, 43.
https://doi.org/10.21501/21454086.1702
An, Q., Wang, K., Li, Z., Song, C., Tang, X., & Song, J. (2022). Real-Time Monitoring Method of Strawberry
Fruit Growth State Based on YOLO Improved Model. IEEE Access, 10(December), 124363124372.
https://doi.org/10.1109/ACCESS.2022.3220234
Andriyanov, N. (2023). Development of Apple Detection System and Reinforcement Learning for Apple
Manipulator. Electronics (Switzerland), 12(3). https://doi.org/10.3390/electronics12030727
Augusto, J. S. F. (2020). Introducción a la visión artificial. British Journal of Cancer.
Blasco, J., Cubero, S., Gómez-Sanchís, J., & Moltó, E. (2010). Avances en visión artificial automática de
productos hortofrutícolas. Hoticultura Global, 288, 4850.
https://www.horticom.com/revistasonline/horticultura/rhg288/48_51.pdf
Castro, W., Oblitas, J., De-La-Torre, M., Cotrina, C., Bazan, K., & Avila-George, H. (2019). Classification of
Cape Gooseberry Fruit According to its Level of Ripeness Using Machine Learning Techniques and
Different Color Spaces. IEEE Access, 7, 2738927400.
https://doi.org/10.1109/ACCESS.2019.2898223
Chen, D., Tang, J., Xi, H., & Zhao, X. (2021). Image recognition of modern agricultural fruit maturity based
on internet of things. Traitement Du Signal, 38(4), 12371244. https://doi.org/10.18280/ts.380435
Chen, S., Liao, Y., Lin, F., & Huang, B. (2023). An Improved Lightweight YOLOv5 Algorithm for Detecting
Strawberry Diseases. IEEE Access, 11, 5408054092.
https://doi.org/10.1109/ACCESS.2023.3282309
Cho, B. H., Koyama, K., & Koseki, S. (2021). Determination of ‘Hass’ avocado ripeness during storage by a
smartphone camera using artificial neural network and support vector regression. Journal of Food
Measurement and Characterization, 15(2), 20212030. https://doi.org/10.1007/s11694-020-
00793-7
Cho, B. H., Koyama, K., Olivares Díaz, E., & Koseki, S. (2020). Determination of “Hass” Avocado Ripeness
During Storage Based on Smartphone Image and Machine Learning Model. Food and Bioprocess
Technology, 13(9), 15791587. https://doi.org/10.1007/s11947-020-02494-x
Constante, P. N. (2012). Diseño E Implementación De Un Prototipo De Brazo Robótico Para Aplicaciones De
Clasificación Y Reconocimiento De Formas En El Proceso De Paletizado Empleando Procesamiento
Digital De Imágens. Escuela Politécnica del Ejército Extensión Latacunga.
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
22 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Davur, Y. J., Kämper, W., Khoshelham, K., Trueman, S. J., & Bai, S. H. (2023). Estimating the Ripeness of
Hass Avocado Fruit Using Deep Learning with Hyperspectral Imaging. Horticulturae, 9(5), 116.
https://doi.org/10.3390/horticulturae9050599
FAO. (2020). OCDEFAO Perspectivas Agrícolas 20202029. In OECD Publishing.
Ferraris, S., Meo, R., Pinardi, S., Salis, M., & Sartor, G. (2023). Machine Learning as a Strategic Tool for
Helping Cocoa Farmers in Côte D’Ivoire. Sensors, 23(17), 125. https://doi.org/10.3390/s23177632
He, L., Cheng, X., Jiwa, A., Li, D., Fang, J., & Du, Z. (2023). Zanthoxylum bungeanum Fruit Detection by
Adaptive Thresholds in HSV Space for an Automatic Picking System. IEEE Sensors Journal, 23(13),
1447114486. https://doi.org/10.1109/JSEN.2023.3277042
Heras, D. (2017). Fruit image classifier based on artificial intelligence. Revista Killkana Técnica, 1(2), 21
30. https://doi.org/10.26871/killkana
Jaramillo-Acevedo, C. A., Choque-Valderrama, W. E., Guerrero-Álvarez, G. E., & Meneses-Escobar, C. A.
(2020). Hass avocado ripeness classification by mobile devices using digital image processing and
ANN methods. International Journal of Food Engineering, 16(12). https://doi.org/10.1515/ijfe-2019-
0161
Juan, T., González, D., Manuel, Y. J., & Velasco, S. (2015). Diseño de Prototipo de Recogida Automatizada de
bolos mediante brazo robótico y visión artificial.
Khattak, A., Asghar, M. U., Batool, U., Asghar, M. Z., Ullah, H., Al-Rakhami, M., & Gumaei, A. (2021).
Automatic Detection of Citrus Fruit and Leaves Diseases Using Deep Neural Network Model. IEEE
Access, 9, 112942112954. https://doi.org/10.1109/ACCESS.2021.3096895
Khriji, L., Ammari, A. C., & Awadalla, M. (2020). Hardware/software co-design of a vision system for
automatic classification of date fruits. International Journal of Embedded and Real-Time
Communication Systems, 11(4), 2140. https://doi.org/10.4018/IJERTCS.2020100102
Lai, J. W., Ramli, H. R., Ismail, L. I., & Hasan, W. Z. W. (2022). Real-Time Detection of Ripe Oil Palm Fresh
Fruit Bunch Based on YOLOv4. IEEE Access, 10(August), 9576395770.
https://doi.org/10.1109/ACCESS.2022.3204762
Lawal, O. M. (2021). YOLOMuskmelon: Quest for fruit detection speed and accuracy using deep learning.
IEEE Access, 9, 1522115227. https://doi.org/10.1109/ACCESS.2021.3053167
Lee, J. H., Vo, H. T., Kwon, G. J., Kim, H. G., & Kim, J. Y. (2023). Multi-Camera-Based Sorting System for
Surface Defects of Apples. Sensors, 23(8). https://doi.org/10.3390/s23083968
Li, J., Tang, Y., Zou, X., Lin, G., & Wang, H. (2020). Detection of Fruit-Bearing Branches and Localization of
Litchi Clusters for Vision-Based Harvesting Robots. IEEE Access, 8, 117746117758.
https://doi.org/10.1109/ACCESS.2020.3005386
Liberati, A., Altman, D. G., Tetzlaff, J., Mulrow, C., Gøtzsche, P. C., Ioannidis, J. P. A., Clarke, M., Devereaux, P.
J., Kleijnen, J., & Moher, D. (2009). The PRISMA statement for reporting systematic reviews and
meta-analyses of studies that evaluate health care interventions: explanation and elaboration. In
Journal of clinical epidemiology (Vol. 62, Issue 10). https://doi.org/10.1016/j.jclinepi.2009.06.006
Liu, Z., Wu, J., Fu, L., Majeed, Y., Feng, Y., Li, R., & Cui, Y. (2020). Improved Kiwifruit Detection Using Pre-
Trained VGG16 with RGB and NIR Information Fusion. IEEE Access, 8, 23272336.
https://doi.org/10.1109/ACCESS.2019.2962513
Luo, Q., Rao, Y., Jin, X., Jiang, Z., Wang, T., Wang, F., & Zhang, W. (2022). Multi-Class on-Tree Peach
Detection Using Improved YOLOv5s and Multi-Modal Images. Smart Agriculture, 4(4), 84104.
https://doi.org/10.12133/j.smartag.SA202210004
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
23 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Marco-Detchart, C., Carrascosa, C., Julian, V., & Rincon, J. (2023). Robust Multi-Sensor Consensus Plant
Disease Detection Using the Choquet Integral. Sensors, 23(5). https://doi.org/10.3390/s23052382
Mazzia, V., Khaliq, A., Salvetti, F., & Chiaberge, M. (2020). Real-time apple detection system using
embedded systems with hardware accelerators: An edge AI application. IEEE Access, 8, 91029114.
https://doi.org/10.1109/ACCESS.2020.2964608
Miraei Ashtiani, S. H., Javanmardi, S., Jahanbanifard, M., Martynenko, A., & Verbeek, F. J. (2021). Detection
of mulberry ripeness stages using deep learning models. IEEE Access, 9, 100380100394.
https://doi.org/10.1109/ACCESS.2021.3096550
Palumbo, M., Cefola, M., Pace, B., Attolico, G., & Colelli, G. (2023). Computer vision system based on
conventional imaging for non-destructively evaluating quality attributes in fresh and packaged fruit
and vegetables. Postharvest Biology and Technology, 200(March), 112332.
https://doi.org/10.1016/j.postharvbio.2023.112332
Quinde, D. F., Cisneros Prieto, E. A., & Soto Galarza, I. A. (2021). Aplicación de Visión Artificial en Sistemas
de Video Vigilancia con Reconocimiento Facial para el Control de Acceso. Revista Científica Carácter,
9(1), 16.
Santillán, G., Danilo, I., Sánchez, C., & Manuel, V. (2015). La visión artificial y los campos de aplicación. April.
https://doi.org/10.32645/26028131.76
Sari, M. I., Fajar, R., Gunawan, T., & Handayani, R. (2022). The Use of Image Processing and Sensor in
Tomato Sorting Machine by Color, Size, and Weight. International Journal on Informatics
Visualization, 6(12), 244249. https://doi.org/10.30630/joiv.6.1-2.944
Shah, M. (1997). Fundamentals of Computer Vision. Orlando: University of Central Florida.
Suharjito, Asrol, M., Utama, D. N., Junior, F. A., & Marimin. (2023). Real-Time Oil Palm Fruit Grading
System Using Smartphone and Modified YOLOv4. IEEE Access, 11(June), 5975859773.
https://doi.org/10.1109/ACCESS.2023.3285537
Tang, Y., Gao, S., Zhuang, J., Hou, C., He, Y., Chu, X., Miao, A., & Luo, S. (2020). Apple Bruise Grading Using
Piecewise Nonlinear Curve Fitting for Hyperspectral Imaging Data. IEEE Access, 8, 147494147506.
https://doi.org/10.1109/ACCESS.2020.3015808
Tian, Y., Duan, H., Luo, R., Zhang, Y., Jia, W., Lian, J., Zheng, Y., Ruan, C., & Li, C. (2019). Fast Recognition and
Location of Target Fruit Based on Depth Information. IEEE Access, 7, 170553170563.
https://doi.org/10.1109/ACCESS.2019.2955566
Tran, H. M., Pham, K. T., Vo, T. M., Le, T. H., Huynh, T. T. M., & Dao, S. V. T. (2023). A New Approach for
Estimation of Physical Properties of Irregular Shape Fruit. IEEE Access, 11(May), 4655046560.
https://doi.org/10.1109/ACCESS.2023.3273777
Valdivia Arias, C. J. (2016). Diseño de un Sistema de Visión Artificial para la clasificación de chirimoyas
basado en medidas. Pontificia Universidad Católica del Perú.
http://hdl.handle.net/20.500.12404/7849
Véles, A. M., Sánchez, A., & Sánchez, J. (2003). Visión por Computador. In Dykinson (Ed.), Universidad Rey
Juan Carlos.
Vicuña, J., & Anelle, M. (2021). Lectura de Medidores Eléctricos Analógicos mediante Visión Artificial.
Universidad Católica de Cuenca, 171.
Wang, D., Li, C., Song, H., Xiong, H., Liu, C., & He, D. (2020). Deep Learning Approach for Apple Edge
Detection to Remotely Monitor Apple Growth in Orchards. IEEE Access, 8, 2691126925.
https://doi.org/10.1109/ACCESS.2020.2971524
Parraga-Badillo, S. R. & Coral-Ygnacio, M. A.
24 Rev. Cient. Sist. Inform. 4(1): e591; (Ene-Jun, 2024). e-ISSN: 2709-992X
Wu, L., Ma, J., Zhao, Y., & Liu, H. (2021). Apple detection in complex scene using the improved yolov4
model. Agronomy, 11(3). https://doi.org/10.3390/agronomy11030476
Xuan, G., Gao, C., Shao, Y., Zhang, M., Wang, Y., Zhong, J., Li, Q., & Peng, H. (2020). Apple Detection in
Natural Environment Using Deep Learning Algorithms. IEEE Access, 8, 216772216780.
https://doi.org/10.1109/ACCESS.2020.3040423
Zhang, Q., & Gao, G. (2019). Grasping Point Detection of Randomly Placed Fruit Cluster Using Adaptive
Morphology Segmentation and Principal Component Classification of Multiple Features. IEEE Access,
7, 158035158050. https://doi.org/10.1109/ACCESS.2019.2946267