<?xml version="1.0" encoding="UTF-8"?><?xml-model type="application/xml-dtd" href="https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "https://jats.nlm.nih.gov/publishing/1.3/JATS-journalpublishing1-3.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0/" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" specific-use="Marcalyc 1.3" dtd-version="1.3" article-type="research-article" xml:lang="es">
<front>
<journal-meta>
<journal-id journal-id-type="index">7778</journal-id>
<journal-title-group>
<journal-title specific-use="original" xml:lang="es">Conectividad</journal-title>
<abbrev-journal-title abbrev-type="publisher" xml:lang="es">Conectividad</abbrev-journal-title>
</journal-title-group>
<issn pub-type="epub">2806-5875</issn>
<issn-l>2806-5875</issn-l>
<publisher>
<publisher-name>Tecnológico Superior Rumiñahui</publisher-name>
<publisher-loc>
<country>Ecuador</country>
<email>revista@ister.edu.ec</email>
</publisher-loc>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="art-access-id" specific-use="redalyc">777882631004</article-id>
<article-id pub-id-type="doi">10.37431/conectividad.v5i2.129</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Sin sección</subject>
</subj-group>
</article-categories>
<title-group>
<article-title xml:lang="es">Prototipo para la detección y clasificación de productos alimenticios mediante visión artificial en base al color</article-title>
<trans-title-group>
<trans-title xml:lang="en">
<bold>
<italic>Prototype for the detection and classification of food products using artificial vision based on color</italic>
</bold>
</trans-title>
</trans-title-group>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="yes">
<contrib-id contrib-id-type="orcid">https://orcid.org/0009-0009-6103-6166</contrib-id>
<name name-style="western">
<surname>Villarreal Ger</surname>
<given-names>Lucio Orlando</given-names>
</name>
<xref ref-type="corresp" rid="corresp1"/>
<xref ref-type="aff" rid="aff1"/>
<email>villarreal@institutovicentefierro.edu.ec</email>
</contrib>
</contrib-group>
<aff id="aff1">
<institution content-type="original">Instituto Superior Tecnológico Vicente Fierro, lvillarreal@institutovicentefierro.edu.ec, Tulcán, Ecuador</institution>
<country country="EC">Ecuador</country>
<institution-wrap>
<institution content-type="orgname">Instituto Superior Tecnológico Vicente Fierro</institution>
</institution-wrap>
</aff>
<author-notes>
<corresp id="corresp1">
<email>
<underline>lovgycea@gmail.com</underline>
</email>
</corresp>
</author-notes>
<pub-date pub-type="epub-ppub">
<year>2024</year>
</pub-date>
<volume>5</volume>
<issue>2</issue>
<supplement>Esp.</supplement>
<fpage>46</fpage>
<lpage>62</lpage>
<history>
<date date-type="received" publication-format="dd/mm/yy">
<day>24</day>
<month>11</month>
<year>2023</year>
</date>
<date date-type="accepted" publication-format="dd/mm/yy">
<day>19</day>
<month>01</month>
<year>2024</year>
</date>
<date date-type="pub" publication-format="dd/mm/yy">
<day>20</day>
<month>02</month>
<year>2024</year>
</date>
</history>
<permissions>
<copyright-statement>Los originales publicados en la edición electrónica bajo derechos de primera publicación de la revista son del Instituto Superior Tecnológico Universitario Rumiñahui, por ello, es necesario citar la procedencia en cualquier reproducción parcial o total.</copyright-statement>
<copyright-year>2024</copyright-year>
<copyright-holder>Instituto Superior Tecnológico Universitario Rumiñahui</copyright-holder>
<ali:free_to_read/>
<license xlink:href="https://creativecommons.org/licenses/by-nc/4.0/">
<ali:license_ref>https://creativecommons.org/licenses/by-nc/4.0/</ali:license_ref>
<license-p>Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional.</license-p>
</license>
</permissions>
<abstract xml:lang="es">
<title>Resumen</title>
<p>El presente trabajo muestra un prototipo que aplica la visión artificial como una herramienta útil en los procesos de manufactura que requieren clasificar sus productos, ya sea por defectos, cumplimiento de normas, por característica como peso, contorno, color, en general para el control de la calidad de los productos. El proyecto tiene como objetivo desarrollar un prototipo para la detección y clasificación de productos alimenticios mediante visión artificial tomando como referencia el color. Para el desarrollo del proyecto, al ser de tipo experimental, se procede a escoger los componentes para el diseño del prototipo, así como la característica del objeto que se requiere controlar, en este caso, el color; la siguiente etapa es configurar un algoritmo que permita que el prototipo detecte la característica elegida del objeto; para este propósito, el lenguaje de programación utilizado es Python, que se rige bajo licencia de software libre y cuenta entre otras librería, OpenCV, una biblioteca de visión por computador de código abierto que tiene 500 funciones y alrededor de 2500 algoritmos;  en la siguiente fase se integran los componentes del prototipo: cámara web, fuente de iluminación, computador o mini controlador, software de procesamiento de imágenes, pantalla de visualización. Se realiza pruebas en tiempo real para validar el prototipo, resultando en un prototipo funcional de acuerdo al objetivo planteado. Esto permite concluir que los sistemas de detección de defectos o de control de calidad basados en visión artificial pueden adaptarse a los procesos de manufactura, mejorando su productividad y competitividad.</p>
</abstract>
<trans-abstract xml:lang="en">
<title>Abstract</title>
<p>This work showcases a prototype that uses artificial vision to enhance manufacturing processes that require the classification of products. This can include detecting defects, ensuring compliance with standards, and categorizing products based on characteristics such as weight, contour, and color. The project aims to develop a prototype for the detection and classification of food products using artificial vision, where color serves as a reference point. To develop the prototype, the components for the design are chosen, and the characteristics of the object to be controlled are identified. In this case, the chosen characteristic is color. An algorithm is then created to enable the prototype to detect the object's feature. For this purpose, the programming language Python is used, which is governed by a free software license and has a library called OpenCV. OpenCV is an open-source computer vision library that contains around 2,500 algorithms and 500 functions. In the next stage, the prototype components, including a web camera, lighting source, computer or mini controller, image processing software, and display screen, are integrated. Real-time tests are conducted to validate the prototype, resulting in a functional prototype that meets the stated objective. This proves that artificial vision-based quality control systems can be adapted to manufacturing processes, leading to improved productivity and competitiveness.</p>
</trans-abstract>
<kwd-group xml:lang="es">
<title>Palabras clave</title>
<kwd>Algoritmo</kwd>
<kwd>Control de calidad</kwd>
<kwd>Prototipo</kwd>
<kwd>Visión artificial</kwd>
</kwd-group>
<kwd-group xml:lang="en">
<title>Keywords</title>
<kwd>Algorithm</kwd>
<kwd>Quality control</kwd>
<kwd>Prototype</kwd>
<kwd>Computer vision</kwd>
</kwd-group>
<counts>
<fig-count count="5"/>
<table-count count="3"/>
<equation-count count="0"/>
<ref-count count="13"/>
</counts>
<custom-meta-group>
<custom-meta>
<meta-name>redalyc-journal-id</meta-name>
<meta-value>7778</meta-value>
</custom-meta>
</custom-meta-group>
</article-meta>
</front>
<body>
<sec>
<title>Citar como:</title>
<p>
<disp-quote>
<p>Villarreal Ger, L. O. (2024). Prototipo para la detección y clasificación de productos alimenticios mediante visión artificial en base al color. CONECTIVIDAD, 5(2), 46–62. https://doi.org/10.37431/conectividad.v5i2.129</p>
</disp-quote>
</p>
</sec>
<sec sec-type="intro">
<title>
<bold>INTRODUCCIÓN</bold>
</title>
<p>En la actualidad las industrias que fabrican productos buscan estar a la vanguardia en el uso de tecnologías que mejoren la calidad de sus procesos y de sus productos, reducir costos y aumentar las utilidades, una de las soluciones tecnológicas que más evolución ha tenido en los últimos años son los sistemas de visión artificial por computadora (Icaza, 2019); en el caso de procesos industriales por ejemplo, éstos generalmente requieren la automatización de un sistema de visión artificial, para verificar que los productos manufacturados, frutas, vegetales cumplan con ciertos criterios de calidad previamente establecidos, evitando los defectos de producción, impurezas no deseadas, mala apariencia de los productos (Barriga, 2006; De la Fuente, 2012).</p>
<p>La inspección visual manual es un método comúnmente utilizado para detectar defectos en los productos, pero puede ser costoso y lento. Además, puede haber errores humanos que afecten la precisión de la inspección  <xref ref-type="bibr" rid="redalyc_777882631004_ref1">(Alpízar &amp; Fernández, 2021)</xref>. Por lo tanto, el control de calidad en los procesos de producción, es un requisito indispensable sino básico en la actualidad, Como parte de la inteligencia artificial, la visión artificial permite mejorar el control en la calidad de los productos de una manera rápida y precisa, además de reducir costos, en comparación con la inspección visual.</p>
<p>Mediante el presente trabajo se pretende desarrollar un prototipo para la detección y clasificación de productos alimenticios mediante visión artificial tomando como referencia el color. Se eligió como característica a detectar el color con fines didácticos, ya que cualquier característica dependiendo del tipo de negocio puede ser configurada para ser detectada. Lo importante es la selección de los componentes adecuados tanto hardware como software, de manera que puedan integrarse en un solo sistema que funcione de manera coordinada con el sistema de producción y cuyos resultados puedan obtenerse en tiempo real.</p>
<p>El potencial que tiene la visión artificial para su uso en diferentes ámbitos de la industria y el comercio, está fundamentado en la experiencia que tienen las grandes industrias y cuyos beneficios han sido evidentes en varios aspectos, entre los más relevantes podemos citar:</p>
<p>Mayor precisión y velocidad que la inspección visual manual; reducción de costos: pues la detección automática de defectos ayuda a prevenir la producción de productos defectuosos, lo que reduce los costos de retrabajo y los costos de garantía <xref ref-type="bibr" rid="redalyc_777882631004_ref1">(Alpízar y Fernández, 2021)</xref>; mejora de la eficiencia: la visión artificial permite la inspección en tiempo real y la detección rápida de defectos, lo que mejora la eficiencia del proceso de control de calidad y ayuda a reducir el tiempo de inactividad <xref ref-type="bibr" rid="redalyc_777882631004_ref1">(Alpízar y Fernández, 2021)</xref>; flexibilidad: la visión artificial puede ser configurada para detectar una amplia gama de defectos y puede ser adaptada a diferentes tipos de productos y procesos de manufactura <xref ref-type="bibr" rid="redalyc_777882631004_ref2">(Ayo y Moreno, 2021)</xref>; mejora de la calidad del producto: la implementación del control de calidad mediante visión artificial ayuda a garantizar que los productos fabricados cumplan con las especificaciones de diseño y los requisitos de calidad, lo que mejora la calidad del producto y la satisfacción del cliente <xref ref-type="bibr" rid="redalyc_777882631004_ref7">(Olano, 2019)</xref>.</p>
<p>Los conocimientos que se requiere para el diseño de un sistema de control de calidad basado en visión artificial, caen en el ámbito de la informática y electrónica, disciplinas que son parte de la malla curricular de la carrera de Tecnología Superior en Electricidad del Instituto Superior Tecnológico Vicente Fierro.</p>
<p>Para el desarrollo de este proyecto se utilizó el lenguaje de programación Python 3.10.10 el cual incorpora librerías diseñadas para este tipo de proyectos. Según <xref ref-type="bibr" rid="redalyc_777882631004_ref3">Del Pianta (2020)</xref>, Python es uno de los lenguajes de programación más populares y versátiles en la actualidad, especialmente para proyectos de inteligencia artificial y visión por computadora, cuenta con una gran cantidad de bibliotecas de visión por computadora como OpenCV, Scikit-image, Pillow, entre otras, que facilitan el procesamiento de imágenes y el reconocimiento de patrones. Estas bibliotecas permiten la detección de colores, formas y objetos en las imágenes, lo que resulta útil en un sistema de control de calidad basado en visión artificial.</p>
<p>Asimismo, Python se puede integrar fácilmente con otros lenguajes de programación y herramientas, lo que lo hace ideal para proyectos que requieren la colaboración de diferentes equipos y tecnologías <xref ref-type="bibr" rid="redalyc_777882631004_ref2">(Ayo y Moreno, 2021)</xref>, en el presente trabajo, la integración con el microprocesador Arduino, no requirió de mayor complejidad.</p>
<p>El prototipo diseñado, permite tener una clara comprensión del potencial de uso de la visión artificial, en las pequeñas y medianas empresas que existen en la zona de influencia del IST Vicente Fierro, a costos relativamente asequibles, esto debido a que en la actualidad existe una gran variedad de aplicaciones de licencia libre que permiten integrarse con cualquier sistema de producción o de control de procesos, de acuerdo a las necesidades del negocio.</p>
<p>Al diseñar un sistema de visión artificial, resulta imprescindible la realización de pruebas a fin de calibrar los instrumentos y componentes, bajar la incertidumbre en la detección de defectos, para garantizar el control de calidad de los productos.</p>
<p>El objetivo general del presente trabajo fue desarrollar un prototipo para la detección y clasificación de productos alimenticios mediante visión artificial tomando como referencia el color. Entre los objetivos específicos que se establecieron están: configurar el algoritmo de detección de característica del producto, integrar los componentes del sistema de visión artificial para la detección de características del producto y verificar la eficacia del prototipo de visión artificial mediante la realización de pruebas.</p>
</sec>
<sec sec-type="materials|methods">
<title>
<bold>METODOLOGÍA Y MATERIALES</bold>
</title>
<p>Para llevar a cabo este proyecto de tipo experimental, las siguientes fases fueron necesarias:</p>
<sec>
<title>Fase 1: elección de los componentes del sistema y del software</title>
<p>Según <xref ref-type="bibr" rid="redalyc_777882631004_ref5">Mendoza y Salazar (2019)</xref>, Para diseñar un sistema de control de calidad en un proceso de manufactura mediante visión artificial básico, se pueden utilizar los siguientes componentes: cámara, sistema de iluminación, computadora o microcontrolador, software de procesamiento de imágenes, pantalla de visualización. Se describe a continuación las variables que deben considerarse para la elección de cada uno de los componentes del sistema:</p>
<p>Cámara: para capturar imágenes de los productos durante el proceso de fabricación, algunas de las características que deben considerarse al elegir una cámara para este propósito son: resolución:  la resolución de la cámara debe ser suficientemente, alta para capturar imágenes de alta calidad y permitir la detección de defectos. Velocidad de captura: la cámara debe ser capaz de capturar imágenes con la suficiente frecuencia para permitir el control en tiempo real del proceso de manufactura. Sensibilidad a la luz: la sensibilidad a la luz de la cámara debe ser adecuada para la iluminación disponible en el entorno de trabajo. Tamaño y formato de la cámara: el tamaño y formato de la cámara deben ser compatibles con las necesidades específicas de la aplicación o el software utilizado. Algunos tipos comunes de cámaras utilizadas para el control de calidad en proceso de manufactura mediante visión artificial incluyen cámaras CCD (dispositivo de carga acoplada) y cámaras CMOS (sensor de imagen complementario de metal-óxido-semiconductor). Las cámaras de alta velocidad y las cámaras infrarrojas también pueden ser utilizadas en algunas aplicaciones específicas<xref ref-type="bibr" rid="redalyc_777882631004_ref3"> (Del Pianta, 2020)</xref>.</p>
<p>Iluminación: para mejorar la calidad y claridad de las imágenes capturadas por la cámara; una iluminación adecuada puede mejorar la capacidad de la cámara para detectar y clasificar los objetos según su calidad, ya que puede resaltar las características importantes de los objetos y permitir una mejor diferenciación entre los objetos buenos y defectuosos <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>. Existen diferentes tipos de iluminación, como la iluminación de luz difusa, la iluminación de luz directa, la iluminación de luz polarizada y la iluminación de luz infrarroja. Cada tipo de iluminación tiene sus propias ventajas y desventajas, y debe ser seleccionado de acuerdo con las necesidades específicas de la aplicación y las características de los objetos a inspeccionar <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>. En general, es proporcionar una iluminación uniforme y controlada, que permita obtener imágenes de alta calidad y precisión para la inspección y clasificación de objetos en la línea de producción. Computadora o microcontrolador: para procesar las imágenes capturadas y llevar a cabo los algoritmos de visión artificial necesarios para detectar defectos y clasificar los productos., la elección del tipo de computadora o microcontrolador depende del alcance y complejidad de la aplicación de control de calidad: para aplicaciones de visión artificial más sencillas, como el control de calidad de piezas pequeñas y la clasificación de productos según su forma o color, se pueden utilizar microcontroladores de bajo costo como el Arduino o el Raspberry Pi, que son fáciles de programar y pueden realizar tareas de procesamiento de imágenes en tiempo real<xref ref-type="bibr" rid="redalyc_777882631004_ref3"> (Del Pianta, 2020)</xref>. Para aplicaciones más complejas que involucran un mayor procesamiento de imágenes y análisis de datos, se pueden utilizar computadoras con una mayor capacidad de procesamiento y memoria, como las PC industriales o las computadoras embebidas. Estas computadoras son capaces de manejar grandes cantidades de datos en tiempo real y realizar análisis de imágenes más complejos. Es importante seleccionar el tipo de hardware adecuado para garantizar un rendimiento óptimo y una precisión en la inspección y clasificación de los objetos <xref ref-type="bibr" rid="redalyc_777882631004_ref5">(Mendoza y Salazar, 2019)</xref>.</p>
<p>Software: Para procesar las imágenes y llevar a cabo las operaciones de segmentación, detección de bordes y clasificación, el software que permite enlazar y ejecutar la programación del sistema, debe considerar lo siguiente: procesamiento de imágenes: se utiliza para capturar imágenes de los productos en el proceso de fabricación y procesarlas para detectar defectos o variaciones. Análisis de imagen: se utiliza para analizar y medir características específicas de los productos, como dimensiones, forma, color, textura y patrones. Reconocimiento de patrones: se utiliza para detectar patrones y anomalías en las imágenes de los productos y en los datos de producción. Aprendizaje automático: se utiliza para entrenar a los sistemas de visión artificial en la detección de defectos y en la toma de decisiones basadas en los datos de producción <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>. En general, la combinación de estos diferentes tipos de software permite el control de calidad en el proceso de manufactura, de manera más eficiente y precisa y por lo tanto la satisfacción del cliente. Hay algunos softwares de visión artificial gratuitos que se pueden utilizar, aunque su funcionalidad y capacidades pueden ser más limitadas que las de las soluciones comerciales. Algunos ejemplos son: OpenCV: es una biblioteca de código abierto que se utiliza para el procesamiento de imágenes y la visión artificial en una amplia variedad de aplicaciones (De la Torre, 2022). Si bien no está diseñada específicamente para el control de calidad en la manufactura, se puede utilizar para desarrollar algoritmos de detección de defectos y análisis de imágenes <xref ref-type="bibr" rid="redalyc_777882631004_ref2">(Ayo y Moreno, 2021)</xref>. ImageJ: es un programa gratuito y de código abierto para el procesamiento y análisis de imágenes, que se utiliza en una amplia variedad de aplicaciones de investigación científica y médica. También se puede utilizar para el análisis de imágenes en el control de calidad en la manufactura <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>. VVVV: es una herramienta de programación visual gratuita y de código abierto que se utiliza para el desarrollo de aplicaciones de visión artificial y multimedia. Puede ser utilizado para desarrollar sistemas de control de calidad en la manufactura mediante la integración de cámaras y algoritmos de procesamiento de imágenes <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>. Processing: es un software de programación gráfica utilizado para el desarrollo de aplicaciones creativas, educativas y científicas. Processing se puede utilizar con Arduino para desarrollar soluciones de visión artificial para el control de calidad <xref ref-type="bibr" rid="redalyc_777882631004_ref2">(Ayo y Moreno, 2021)</xref>.</p>
<p>Pantalla de visualización: para mostrar los resultados del proceso de inspección y control de calidad. La pantalla de visualización en el proceso de inspección y control de calidad es un componente importante que se utiliza para mostrar los resultados del proceso de inspección y control de calidad. Es una pantalla de visualización en tiempo real que muestra las imágenes capturadas por el sistema de visión artificial y los resultados de análisis de imágenes, permitiendo a los operadores y técnicos ver los resultados del proceso de inspección de manera clara y fácil de interpretar <xref ref-type="bibr" rid="redalyc_777882631004_ref3">(Del Pianta, 2020)</xref>, la pantalla de visualización puede mostrar una variedad de información, incluyendo imágenes en tiempo real de los productos en proceso de fabricación, los resultados de análisis de imágenes, los datos de calidad y cualquier otro tipo de información relevante para el control de calidad en el proceso de manufactura <xref ref-type="bibr" rid="redalyc_777882631004_ref5">(Mendoza y Salazar, 2019)</xref>. La pantalla de visualización puede ser una parte importante de un sistema de visión artificial más amplio, que puede incluir hardware de captura de imágenes, software de procesamiento de imágenes y algoritmos de análisis de imágenes. En general, una pantalla de visualización efectiva debe ser fácil de usar, precisa y clara, permitiendo a los operadores y técnicos tomar decisiones informadas sobre el proceso de fabricación y el control de calidad <xref ref-type="bibr" rid="redalyc_777882631004_ref2">(Ayo y Moreno, 2021)</xref>.</p>
</sec>
<sec>
<title>
<bold>Fase 2: Desarrollo del código de programación mediante PYTHON</bold>
</title>
<p>Código de programación en Python</p>
<p>import cv2</p>
<p>import serial</p>
<p># Configurar la conexión con el Arduino</p>
<p>arduino = serial.Serial('COM4', 9600)</p>
<p># Configurar la cámara web</p>
<p>cap = cv2.VideoCapture(1)</p>
<p># Definir los rangos de color que se van a detectar (en este caso, verde)</p>
<p>lower_green = (36, 25, 25)</p>
<p>upper_green = (70, 255, 255)</p>
<p>while True:</p>
<p>    # Capturar un fotograma de la cámara</p>
<p>    ret, frame = cap.read()</p>
<p>        # Redimensionar el fotograma para que sea más fácil de procesar</p>
<p>    frame = cv2.resize(frame, (640, 480))</p>
<p>        # Convertir el fotograma a espacio de color HSV</p>
<p>    hsv = cv2.cvtColor(frame, cv2.COLOR_BGR2HSV)</p>
<p>        # Aplicar un filtro para detectar los colores en el rango especificado</p>
<p>    mask = cv2.inRange(hsv, lower_green, upper_green)</p>
<p>        # Calcular el área del objeto detectado</p>
<p>    contours, hierarchy = cv2.findContours(mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)</p>
<p>        # Si se detecta un objeto con un área mayor que 1000 píxeles, encender la luz verde del Arduino</p>
<p>    # Si no se detecta ningún objeto o se detecta un objeto que no es de color verde, encender la luz roja del Arduino</p>
<p>    is_green = False</p>
<p>    for cnt in contours:</p>
<p>        area = cv2.contourArea(cnt)</p>
<p>        if area &gt; 1000:</p>
<p>            is_green = True</p>
<p>        if is_green:</p>
<p>        arduino.write(b'1')</p>
<p>    else:</p>
<p>        arduino.write(b'2')</p>
<p>        # Mostrar el fotograma con el resultado del filtro</p>
<p>    cv2.imshow('frame_proyecto calidad ISTV', mask)</p>
<p>    cv2.imshow("camara usb_proyecto calidad ISTV",frame)</p>
<p>        # Salir del bucle si se presiona la tecla 'q'</p>
<p>    if cv2.waitKey(1) &amp; 0xFF == ord('q'):</p>
<p>        break</p>
<p># Liberar la cámara y cerrar la ventana</p>
<p>cap.release()</p>
<p>cv2.destroyAllWindows()</p>
</sec>
<sec>
<title>
<bold>Fase 3: Desarrollo del código de programación en Arduino e integración con Python</bold>
</title>
<p>Código de programación en ARDUINO</p>
<p>// Definir los pines de la luz azul y la luz roja</p>
<p>int blueLed = 9;</p>
<p>int redLed = 10;</p>
<p>void setup() {</p>
<p>  // Configurar los pines como salidas</p>
<p>  pinMode(blueLed, OUTPUT);</p>
<p>  pinMode(redLed, OUTPUT);</p>
<p>  // Configurar la comunicación serial a 9600 baudios</p>
<p>  Serial.begin(9600);</p>
<p>}</p>
<p>void loop() {</p>
<p>  // Leer los comandos desde la comunicación serial</p>
<p>  if (Serial.available() &gt; 0) {</p>
<p>    int command = Serial.read();</p>
<p>    // Encender la luz azul si el comando es '1'</p>
<p>    if (command == '1') {</p>
<p>      digitalWrite(blueLed, HIGH);</p>
<p>      digitalWrite(redLed, LOW);</p>
<p>    }</p>
<p>    // Encender la luz roja si el comando es '2'</p>
<p>    else if (command == '2') {</p>
<p>      digitalWrite(blueLed, LOW);</p>
<p>      digitalWrite(redLed, HIGH);</p>
<p>    }</p>
<p>  }</p>
</sec>
<sec>
<title>
<bold>Fase 4: Desarrollo de un prototipo basado en visión artificial y microcontroladores.</bold>
</title>
<p>Una vez que se completa la programación del sistema, se procedió a desarrollar el prototipo de visión artificial utilizando los componentes descritos, una cámara USB 2mpx, un microprocesador Arduino, una protoboard, un computador y para las pruebas: manzanas de diferentes colores. El objetivo era que el software de visión artificial capturara la imagen, la analizara y enviara una señal al microprocesador para ejecutar un proceso, en este caso, encender dos diodos emisores de luz de color rojo y verde.</p>
<p>Cuando se detecta una manzana de color verde, el sistema de visión artificial, basado en programación Python y la librería Open_cv, envía una señal al microprocesador a través del puerto serial con una velocidad de transmisión de 9600 baudios para encender el diodo verde. En caso contrario, si no hay objeto o la manzana es de otro color, se enciende el diodo de color rojo. Además, se proporciona una señal de visión en la CPU para el operador, tanto en fotograma como en la imagen real.</p>
<p>Se procedió a implementar un circuito básico de control mediante, el microcontrolador Arduino, el mismo que ejecuta el proceso de control, en este caso encendido de dos salidas. El proceso es totalmente automático y se puede salir del aplicativo utilizando la letra "q" del teclado. Este prototipo puede ser útil para la evaluación de una amplia variedad de alimentos, desde frutas y verduras hasta carnes y productos lácteos. Además, su diseño modular permite su adaptación a diferentes necesidades y requisitos específicos de cada tipo de alimento. En resumen, un prototipo de control de calidad basado en visión artificial y microcontroladores puede ser una herramienta valiosa para garantizar la calidad y la seguridad de los alimentos. Su capacidad para detectar automáticamente el color del alimento y tomar decisiones en tiempo real puede ahorrar tiempo y reducir el riesgo de error humano en el proceso de control de calidad.</p>
</sec>
</sec>
<sec sec-type="materials">
<title>
<bold>Materiales</bold>
</title>
<p>Los materiales usados se presentan en la siguiente tabla:</p>
<p>
<table-wrap id="gt1">
<label>Tabla 1.</label>
<caption>
<title>Componentes del sistema.</title>
</caption>
<alt-text>Tabla  1. Componentes del sistema.</alt-text>
<alternatives>
<graphic xlink:href="777882631004_gt2.png" position="anchor" orientation="portrait"/>
<table style="width:100.0%;border-collapse:collapse" id="gt2-526564616c7963">
<thead style="display:none;">
<tr style="display:none;">
<th style="display:none;"/>
</tr>
</thead>
<tbody>
<tr style="height:16.8pt">
<td style="width:58.92%;border-top:black;border-left:white;   border-bottom:black;border-right:white;border-style:solid;border-width:1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.8pt">
<bold>Nombre del componente</bold>
</td>
<td style="width:41.08%;border-top:solid black 1.0pt;border-left:   none;border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.8pt">
<bold>Código</bold>
</td>
</tr>
<tr style="height:16.2pt">
<td style="width:58.92%;border:solid white 1.0pt;border-top:none;   padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">Microprocesador CPU CORE I5 ENVIDIA 8MB 11GN</td>
<td style="width:41.08%;border-top:none;border-left:none;   border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;padding:0cm 5.75pt 0cm 3.9pt;   height:16.2pt">ATmega 328P CPU –I5</td>
</tr>
<tr style="height:16.2pt">
<td style="width:58.92%;border:solid white 1.0pt;border-top:none;   padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">Cámara CMOS 1080p</td>
<td style="width:41.08%;border-top:none;border-left:none;   border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;padding:0cm 5.75pt 0cm 3.9pt;   height:16.2pt">CAM WEB -USB</td>
</tr>
<tr style="height:16.2pt">
<td style="width:58.92%;border:solid white 1.0pt;border-top:none;   padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">LUCES LED FUENTE DE VOLTAJE 2AMP</td>
<td style="width:41.08%;border-top:none;border-left:none;   border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;padding:0cm 5.75pt 0cm 3.9pt;   height:16.2pt">LED 5V RGB F-2AMP-ENFORC</td>
</tr>
<tr style="height:20.05pt">
<td style="width:58.92%;border-top:none;border-left:solid white 1.0pt;   border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;padding:0cm 5.75pt 0cm 3.9pt;   height:20.05pt">Módulo relé de 5 voltios</td>
<td style="width:41.08%;border-top:none;border-left:none;   border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;padding:0cm 5.75pt 0cm 3.9pt;   height:20.05pt">SRD-05VDC-SL-C</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Elaboración propia</attrib>
</table-wrap>
</p>
<p>
<table-wrap id="gt2">
<label>Tabla 2.</label>
<caption>
<title>Materiales utilizados en el proyecto.</title>
</caption>
<alt-text>Tabla  2. Materiales utilizados en el proyecto.</alt-text>
<alternatives>
<graphic xlink:href="777882631004_gt3.png" position="anchor" orientation="portrait"/>
<table style="width:100.04%;border-collapse:collapse" id="gt3-526564616c7963">
<thead style="display:none;">
<tr style="display:none;">
<th style="display:none;"/>
</tr>
</thead>
<tbody>
<tr style="height:16.8pt">
<td style="width:50.0%;border-top:black;border-left:white;   border-bottom:black;border-right:white;border-style:solid;border-width:1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.8pt">
<bold>Cantidad</bold>
</td>
<td style="width:50.0%;border-top:solid black 1.0pt;border-left:   none;border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.8pt">
<bold>Material (dispositivo)</bold>
</td>
</tr>
<tr style="height:16.2pt">
<td style="width:50.0%;border:solid white 1.0pt;   border-top:none;padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">1</td>
<td style="width:50.0%;border-top:none;border-left:   none;border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">Tarjeta arduino uno</td>
</tr>
<tr style="height:16.2pt">
<td style="width:50.0%;border:solid white 1.0pt;   border-top:none;padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">1 1 1 1</td>
<td style="width:50.0%;border-top:none;border-left:   none;border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:16.2pt">Módulo relé SRD-05VDC-SL-C Cámara WEB-USB 2MPX Tcrt5000 Fuente de voltaje 2 AMP CPU core I5 para ejecución de software</td>
</tr>
<tr style="height:18.05pt">
<td style="width:50.0%;border:solid white 1.0pt;   border-top:none;padding:0cm 5.75pt 0cm 3.9pt;height:18.05pt">1</td>
<td style="width:50.0%;border-top:none;border-left:   none;border-bottom:solid white 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:18.05pt">Cable UTP</td>
</tr>
<tr style="height:18.05pt">
<td style="width:50.0%;border-top:none;border-left:   solid white 1.0pt;border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:18.05pt">1</td>
<td style="width:50.0%;border-top:none;border-left:   none;border-bottom:solid black 1.0pt;border-right:solid white 1.0pt;   padding:0cm 5.75pt 0cm 3.9pt;height:18.05pt">Cinta aislante</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Elaboración propia</attrib>
</table-wrap>
</p>
</sec>
<sec sec-type="results|discussion">
<title>
<bold>RESULTADOS Y DISCUSIÓN</bold>
</title>
<p>Al ser un trabajo de tipo experimental, los resultados obtenidos podemos dividirlos en tres partes, esto debido a que en una primera fase se procede a la instalación del programa Python y al diseño del algoritmo correspondiente en este programa, se realizan las corridas correspondientes, hasta tener el código de programación de acuerdo a lo requerido. La ejecución de este código puede observarse en la <xref ref-type="fig" rid="gf1">figura No.1.</xref> En una segunda fase se desarrolla el código de programación en Arduino y su integración con Python, una vez realizadas las corridas correspondientes, y los ajustes necesarios, se tiene la ejecución de este código como puede observarse en la <xref ref-type="fig" rid="gf2">figura No.2.</xref> En una tercera fase se integran los diferentes componentes tanto hardware como software y se realizan las pruebas correspondientes cuyos resultados se detallan en la <xref ref-type="table" rid="gt1">tabla No.1</xref>
</p>
<p>
<fig id="gf1">
<label>
<bold>
<italic> Figura 1. </italic>
</bold>
</label>
<caption>
<title>
<bold>
<italic> Programa ejecutado en Python </italic>
</bold>
</title>
</caption>
<alt-text>Figura 1. Programa ejecutado en Python</alt-text>
<graphic xlink:href="777882631004_gf2.png" position="anchor" orientation="portrait">
<alt-text>Figura 1. Programa ejecutado en Python</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
<p>
<fig id="gf2">
<label>
<bold>Figura 2.</bold>
</label>
<caption>
<title>Programa ejecutado en Arduino.</title>
</caption>
<alt-text>Figura 2. Programa ejecutado en Arduino.</alt-text>
<graphic xlink:href="777882631004_gf3.png" position="anchor" orientation="portrait">
<alt-text>Figura 2. Programa ejecutado en Arduino.</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
<p>
<table-wrap id="gt3">
<label>Tabla 3.</label>
<caption>
<title>Pruebas realizadas al prototipo desarrollado.</title>
</caption>
<alt-text>Tabla 3. Pruebas realizadas al prototipo desarrollado.</alt-text>
<alternatives>
<graphic xlink:href="777882631004_gt4.png" position="anchor" orientation="portrait"/>
<table style="border-collapse:collapse;border:none" id="gt4-526564616c7963">
<thead style="display:none;">
<tr style="display:none;">
<th style="display:none;"/>
</tr>
</thead>
<tbody>
<tr>
<td style="border:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">
<bold>No.</bold>
</td>
<td style="border:solid windowtext 1.0pt;border-left:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Descripción</bold>
</td>
<td style="border:solid windowtext 1.0pt;border-left:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Resultado</bold>
</td>
<td style="border:solid windowtext 1.0pt;border-left:none;   padding:0cm 5.4pt 0cm 5.4pt">
<bold>Observación</bold>
</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">1</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Funcionalidad programa Python</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Se ejecuta a satisfacción</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Python 3.10.10</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">2</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Insatlación librerías Pyserial y Open CV</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Instaladas</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Las librerías permiten realizar la integración del sistema con los periféricos.</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">3</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Establecer comunicación entre Python y Arduino</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Se realiza el RUN en Python y se establece comunicación a 9600 baudios.</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Puerto configurado COM4</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">4</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Establecer comunicación con la cámara WEB</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">El sistema se comunica con la cámara WEB</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">La cámara WEB utilizada para la visión artificial</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">5</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Ejecución del sistema total</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">El programa reconoce los alimentos de color verde en este caso manzanas</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Se configuró para que el sistema reconozca alimentos de color verde</td>
</tr>
<tr>
<td style="border:solid windowtext 1.0pt;border-top:none;   padding:0cm 5.4pt 0cm 5.4pt">6</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Ejecución del sistema total.</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">El programa reconoce otros alimentos de otros colores</td>
<td style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;   border-right:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt">Cuando los alimentos detectados son de otro color, se enciende una luz roja.</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Elaboración propia</attrib>
</table-wrap>
</p>
<p>Se escogió como característica a detectar del producto (manzana), el color, si es verde el sistema enciende una luz verde, caso contrario una luz roja; al tener un resultado positivo con esta característica, se puede inferir que se puede configurar el sistema para cualquier otra característica o defecto que se desee controlar. Los componentes del sistema de visión artificial, deben tener ciertas características que permitan integrarse entre sí y con otros sistemas, en el presente trabajo, se eligió el programa Python y Open CV que son software de licencia libre y como microcontrolador el Arduino, que ofrecen gran versatilidad a la hora de configurar un sistema.</p>
<p>Los resultados obtenidos con el prototipo, permiten visualizar un gran campo de aplicación de la visión artificial en las pequeñas y medianas empresas, que requieran optimizar su producción o mejorar la calidad de sus productos, tal como se demuestra en el trabajo de tesis realizado por Ramos J, sistema de visión artificial para el conteo y medición de alevinos de trucha “arco iris” para la dirección subregional de la producción Andahuaylas.</p>
<p>Es necesario mencionar que, para tener el prototipo operativo, fueron necesarias varias pruebas tanto a nivel de programación como a nivel de hardware, hasta que la configuración final produzca los resultados deseados, estos es la detección de la característica del objeto de estudio, esto es concordante con los resultados obtenidos por Icaza W, en su trabajo Desarrollo de un sistema de visión artificial con Labview, que   permita detectar imperfecciones en las latas de atún.</p>
<p>Se conoce que a nivel industrial el control de calidad de los productos es un proceso clave, que permite la detección temprana de defectos en los productos, los resultados del presente trabajo demuestran que es posible la aplicación de la visión artificial a pequeña y mediana escala y a costos relativamente bajos en comparación con los de las grandes industrias. Los costos reducidos se deben en gran parte a que existen software de licencia libre que pueden utilizarse en las pequeñas industrias o negocios, esto puede corroborarse con los resultados obtenidos por <xref ref-type="bibr" rid="redalyc_777882631004_ref13">Rosas-Echevarría, C.W.; Solís-Bonifacio, H.; Cerna-Cueva, A.F. (2019)</xref>. Sistema eficiente y de bajo costo para la selección de granos de café: una aplicación de la visión artificial: “con respecto a los costos, también resultan muy bajos en comparación con los ojos electrónicos, ya que los equipos son de bajo costo y el software es de código libre (OpenCV). El presente sistema es flexible para control de calidad con parámetros estandarizados, ya que el sistema recibe los valores estándar que deseemos para la posterior selección”.</p>
<p>
<fig id="gf3">
<label>
<bold>Figura 3</bold>.</label>
<caption>
<title>Sistema planteado como solución</title>
</caption>
<alt-text>Figura 3. Sistema planteado como solución</alt-text>
<graphic xlink:href="777882631004_gf4.png" position="anchor" orientation="portrait">
<alt-text>Figura 3. Sistema planteado como solución</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
</sec>
<sec>
<title>
<bold>CONCLUSIONES</bold>
</title>
<p>El prototipo desarrollado cumple con el objetivo planteado, esto es la detección de una característica de un producto, en este caso el color, demostrando así que los sistemas de control de calidad que involucran visión artificial, para la detección de defectos o alguna característica de un producto, son precisos y eficaces.</p>
<p>Se configura el algoritmo de detección del color en el programa Python, y librería Opencv de acuerdo a lo planificado. La selección y configuración del algoritmo en función de las características del producto es la clave en el desarrollo de un sistema automatizado de visión artificial, para garantizar la detección de defectos o característica del producto.</p>
<p>La integración de los componentes una vez desarrollados los algoritmos en Python y en el Arduino, cumple con el objetivo planteado, demostrando que el sistema de visión artificial funciona, este puede integrarse al proceso de fabricación, para la detección automática de defectos o características de los productos, esta integración puede hacerse también a otros sistemas de control de procesos para garantizar la calidad de los productos.</p>
<p>La optimización del sistema de visión artificial es crucial para una detección precisa de defectos, esto se lo realiza ajustando ya sea la configuración del sistema, así como la elección de los componentes más adecuados, en cuanto a iluminación o cámaras, por ejemplo.</p>
<p>La realización de pruebas con un prototipo de un sistema de visión artificial es necesario antes de implementar en un proceso de fabricación y/o producción, a fin de ajustar las variables requeridas dentro del rango deseado, asimismo para determinar costos.</p>
<p>
<fig id="gf4">
<label>
<bold>Figura 4.</bold>
</label>
<caption>
<title>Prototipo completo funcionando, control de calidad basado en el parámetro color (verde).</title>
</caption>
<alt-text>Figura 4. Prototipo completo funcionando, control de calidad basado en el parámetro color (verde).</alt-text>
<graphic xlink:href="777882631004_gf5.png" position="anchor" orientation="portrait">
<alt-text>Figura 4. Prototipo completo funcionando, control de calidad basado en el parámetro color (verde).</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
<p>Prototipo funcionando de acuerdo a los objetivos planteados. Al pasar la manzana verde por la cámara web, una luz indicadora de color verde se enciende.</p>
<p>
<fig id="gf5">
<label>
<bold>Figura 5.</bold>
</label>
<caption>
<title>Prototipo completo funcionando: con producto de diferente color<italic>.</italic>
</title>
</caption>
<alt-text>Figura 5. Prototipo completo funcionando: con producto de diferente color.</alt-text>
<graphic xlink:href="777882631004_gf6.png" position="anchor" orientation="portrait">
<alt-text>Figura 5. Prototipo completo funcionando: con producto de diferente color.</alt-text>
</graphic>
<attrib>Elaboración propia</attrib>
</fig>
</p>
<p>Prototipo con todos los elementos funcionando, en el presente estudio la acción del controlador es la emisión de una señal luminosa, pero puede configurarse para que se realice otras acciones como, por ejemplo: activación de brazos robóticos, apertura de puertas para productos de desecho, activación de alarmas sonoras, etc.</p>
</sec>
</body>
<back>
<ref-list>
<title>
<bold>REFERENCIAS </bold>
</title>
<ref id="redalyc_777882631004_ref1">
<mixed-citation publication-type="journal">Alpízar, J., &amp; Fernández, M. (2021). Caracterización morfológica de un lecho de recubrimiento de tabletas farmacéuticas mediante un algoritmo de visión artificial. Tecnología en Marcha, 34(3), 51-60. doi: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.18845/tm.v34i3.5032">https://doi.org/10.18845/tm.v34i3.5032</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Alpízar</surname>
<given-names>J.</given-names>
</name>
<name>
<surname>Fernández</surname>
<given-names>M.</given-names>
</name>
</person-group>
<article-title>Caracterización morfológica de un lecho de recubrimiento de tabletas farmacéuticas mediante un algoritmo de visión artificial</article-title>
<source>Tecnología en Marcha</source>
<year>2021</year>
<issue>3</issue>
<fpage>51</fpage>
<lpage>60</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://doi.org/10.18845/tm.v34i3.5032">https://doi.org/10.18845/tm.v34i3.5032</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref2">
<mixed-citation publication-type="thesis">Ayo, W., &amp; Moreno, H. (2021). Desarrollo de un sistema de inspección automático de PCB’S mediante visión artificial. [tesis de pregrado, Universidad Politécnica Salesiana]. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://dspace.ups.edu.ec/bitstream/123456789/20029/1/UPS%20-%20TTS345.pdf">https://dspace.ups.edu.ec/bitstream/123456789/20029/1/UPS%20-%20TTS345.pdf</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Ayo</surname>
<given-names>W.</given-names>
</name>
<name>
<surname>Moreno</surname>
<given-names>H.</given-names>
</name>
</person-group>
<source>https://dspace.ups.edu.ec/bitstream/123456789/20029/1/UPS%20-%20TTS345.pdf</source>
<year>2021</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://dspace.ups.edu.ec/bitstream/123456789/20029/1/UPS%20-%20TTS345.pdf">https://dspace.ups.edu.ec/bitstream/123456789/20029/1/UPS%20-%20TTS345.pdf</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref3">
<mixed-citation publication-type="thesis">Del Pianta, L. (2020). Diseño e implementación de un sistema de control de calidad mediante visión por computador. [tesis de pregrado, Universidad Politécnica de Valencia]. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://riunet.upv.es/bitstream/handle/10251/149784/Pianta%20-%20Dise%C3%B1o%20e%20implementaci%C3%B3n%20de%20un%20sistema%20de%20control%20de%20calidad%20mediante%20vision%20por%20computador.pdf?sequence=1">https://riunet.upv.es/bitstream/handle/10251/149784/Pianta%20-%20Dise%C3%B1o%20e%20implementaci%C3%B3n%20de%20un%20sistema%20de%20control%20de%20calidad%20mediante%20vision%20por%20computador.pdf?sequence=1</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Del Pianta</surname>
<given-names>L.</given-names>
</name>
</person-group>
<source>https://riunet.upv.es/bitstream/handle/10251/149784/Pianta%20-%20Dise%C3%B1o%20e%20implementaci%C3%B3n%20de%20un%20sistema%20de%20control%20de%20calidad%20mediante%20vision%20por%20computador.pdf?sequence=1</source>
<year>2020</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://riunet.upv.es/bitstream/handle/10251/149784/Pianta%20-%20Dise%C3%B1o%20e%20implementaci%C3%B3n%20de%20un%20sistema%20de%20control%20de%20calidad%20mediante%20vision%20por%20computador.pdf?sequence=1">https://riunet.upv.es/bitstream/handle/10251/149784/Pianta%20-%20Dise%C3%B1o%20e%20implementaci%C3%B3n%20de%20un%20sistema%20de%20control%20de%20calidad%20mediante%20vision%20por%20computador.pdf?sequence=1</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref4">
<mixed-citation publication-type="thesis">López, F. (2019). Clasificación de imágenes usando redesneuronales convolucionales. [tesis de maestría, Universidad Autónoma Metropolitana Azcapotzalco]. Obtenido de <ext-link ext-link-type="uri" xlink:href="http://hdl.handle.net/11191/6123">http://hdl.handle.net/11191/6123</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>López</surname>
<given-names>F.</given-names>
</name>
</person-group>
<source>http://hdl.handle.net/11191/6123</source>
<year>2019</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="http://hdl.handle.net/11191/6123">http://hdl.handle.net/11191/6123</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref5">
<mixed-citation publication-type="thesis">Mendoza, D., &amp; Salazar, J. (2019). Sistema de clasificación y control de calidad en un proceso de producción industrial usando visión artificial. [tesis de maestría, Universidad Técnica de Ambato]. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://repositorio.uta.edu.ec/jspui/handle/123456789/29175">https://repositorio.uta.edu.ec/jspui/handle/123456789/29175</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Mendoza</surname>
<given-names>D.</given-names>
</name>
<name>
<surname>Salazar</surname>
<given-names>J.</given-names>
</name>
</person-group>
<source>https://repositorio.uta.edu.ec/jspui/handle/123456789/29175</source>
<year>2019</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://repositorio.uta.edu.ec/jspui/handle/123456789/29175">https://repositorio.uta.edu.ec/jspui/handle/123456789/29175</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref6">
<mixed-citation publication-type="thesis">Merino, Y. (2021). Visión artificial para el control de calidad de un retrovisor. [tesis de pregrado, Universidad Central de Catalunya]. Obtenido de <ext-link ext-link-type="uri" xlink:href="http://hdl.handle.net/10854/7003">http://hdl.handle.net/10854/7003</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Merino</surname>
<given-names>Y.</given-names>
</name>
</person-group>
<source>http://hdl.handle.net/10854/7003</source>
<year>2021</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="http://hdl.handle.net/10854/7003">http://hdl.handle.net/10854/7003</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref7">
<mixed-citation publication-type="thesis">Olano, W. (2019). Clasificación no destructiva de frutas utilizando inteligencia artificial: Revisión Bibliográfica. [tesis de pregrado, Universidad señor de Sipán]. Obtenido de <ext-link ext-link-type="uri" xlink:href="https://repositorio.uss.edu.pe/bitstream/handle/20.500.12802/6215/Olano%20Chavez%20Wilfredo%20Cristobal.pdf?sequence=1&amp;isAllowed=y">https://repositorio.uss.edu.pe/bitstream/handle/20.500.12802/6215/Olano%20Chavez%20Wilfredo%20Cristobal.pdf?sequence=1&amp;isAllowed=y</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Olano</surname>
<given-names>W.</given-names>
</name>
</person-group>
<source>https://repositorio.uss.edu.pe/bitstream/handle/20.500.12802/6215/Olano%20Chavez%20Wilfredo%20Cristobal.pdf?sequence=1&amp;isAllowed=y</source>
<year>2019</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://repositorio.uss.edu.pe/bitstream/handle/20.500.12802/6215/Olano%20Chavez%20Wilfredo%20Cristobal.pdf?sequence=1&amp;isAllowed=y">https://repositorio.uss.edu.pe/bitstream/handle/20.500.12802/6215/Olano%20Chavez%20Wilfredo%20Cristobal.pdf?sequence=1&amp;isAllowed=y</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref8">
<mixed-citation publication-type="thesis">Sedeño, J. (2021). Implementación de un prototipo con sistema de visión artificial para el procesamiento de imágenes que permita mejorar la productividad en el proceso de corte por plasma. [Tesis de pregrado, Escuela Superior Politécnica de Chimborazo]. Obtenido de <ext-link ext-link-type="uri" xlink:href="http://dspace.espoch.edu.ec/handle/123456789/15856">http://dspace.espoch.edu.ec/handle/123456789/15856</ext-link>.</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Sedeño</surname>
<given-names>J.</given-names>
</name>
</person-group>
<source>http://dspace.espoch.edu.ec/handle/123456789/15856</source>
<year>2021</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="http://dspace.espoch.edu.ec/handle/123456789/15856">http://dspace.espoch.edu.ec/handle/123456789/15856</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref9">
<mixed-citation publication-type="thesis">De La Torre, S. (2022). Sistema de clasificación de huevos mediante un algoritmo de visión artificial. [Tesis de pregrado, Universidad Técnica del Norte]. Obtenido del repositorio.utn.edu.ec</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>De La Torre</surname>
<given-names>S.</given-names>
</name>
</person-group>
<source>Sistema de clasificación de huevos mediante un algoritmo de visión artificial. [Tesis de pregrado, Universidad Técnica del Norte]</source>
<year>2022</year>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref10">
<mixed-citation publication-type="thesis">López, R. &amp; Icaza, W. (2019). Desarrollo de un sistema de visión artificial con Labview, que permita detectar imperfecciones en las latas de atún. [Tesis de pregrado, Universidad Estatal de Milagro]. Obtenido de: <ext-link ext-link-type="uri" xlink:href="http://repositorio.unemi.edu.ec/xmlui/handle/123456789/4921">http://repositorio.unemi.edu.ec/xmlui/handle/123456789/4921</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>López</surname>
<given-names>R.</given-names>
</name>
<name>
<surname>Icaza</surname>
<given-names>W.</given-names>
</name>
</person-group>
<source>http://repositorio.unemi.edu.ec/xmlui/handle/123456789/4921</source>
<year>2019</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="http://repositorio.unemi.edu.ec/xmlui/handle/123456789/4921">http://repositorio.unemi.edu.ec/xmlui/handle/123456789/4921</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref11">
<mixed-citation publication-type="book">Ana Gonzáles Marcos…[et al.] (2006). Técnicas y algoritmos básicos de visión artificial. [Material didáctico. Ingenierías. Universidad de la Rioja]. Obtenido de: <ext-link ext-link-type="uri" xlink:href="https://investigacion.unirioja.es/documentos/5c13b22ac8914b6ed3778a6a">https://investigacion.unirioja.es/documentos/5c13b22ac8914b6ed3778a6a</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<source>Técnicas y algoritmos básicos de visión artificial. [Material didáctico. Ingenierías. Universidad de la Rioja]</source>
<year>2006</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://investigacion.unirioja.es/documentos/5c13b22ac8914b6ed3778a6a">https://investigacion.unirioja.es/documentos/5c13b22ac8914b6ed3778a6a</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref12">
<mixed-citation publication-type="thesis">Ramos, J. (2018). Sistema de visión artificial para el conteo y medición de alevinos de trucha “arco iris” para la dirección subregional de la producción Andahuaylas. [Tesis de pregrado, Universidad Nacional José María Arguedas]. Obtenido de: <ext-link ext-link-type="uri" xlink:href="https://hdl.handle.net/20.500.14168/431">https://hdl.handle.net/20.500.14168/431</ext-link>
</mixed-citation>
<element-citation publication-type="thesis">
<person-group person-group-type="author">
<name>
<surname>Ramos</surname>
<given-names>J.</given-names>
</name>
</person-group>
<source>https://hdl.handle.net/20.500.14168/431</source>
<year>2018</year>
<comment>
<ext-link ext-link-type="uri" xlink:href="https://hdl.handle.net/20.500.14168/431">https://hdl.handle.net/20.500.14168/431</ext-link>
</comment>
</element-citation>
</ref>
<ref id="redalyc_777882631004_ref13">
<mixed-citation publication-type="journal">Rosas-Echevarría, C.W.; Solís-Bonifacio, H.; Cerna-Cueva, A.F. (2019). Sistema eficiente y de bajo costo para la selección de granos de café: una aplicación de la visión artificial. Scientia Agropecuaria 10(3): 347 – 351. Obtenido de: <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.17268/sci.agropecu.2019.03.04">http://dx.doi.org/10.17268/sci.agropecu.2019.03.04</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Rosas-Echevarría</surname>
<given-names>C.W.</given-names>
</name>
<name>
<surname>; Solís-Bonifacio</surname>
<given-names>H.</given-names>
</name>
<name>
<surname>; Cerna-Cueva</surname>
<given-names>A.F.</given-names>
</name>
</person-group>
<article-title>Sistema eficiente y de bajo costo para la selección de granos de café: una aplicación de la visión artificial</article-title>
<source>Scientia Agropecuaria</source>
<year>2019</year>
<fpage>347</fpage>
<lpage>351</lpage>
<comment>
<ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.17268/sci.agropecu.2019.03.04">http://dx.doi.org/10.17268/sci.agropecu.2019.03.04</ext-link>
</comment>
</element-citation>
</ref>
</ref-list>
</back>
</article>