Servicios
Descargas
Buscar
Idiomas
P. Completa
Editorial
Martha Jeaneth Patiño Barragán Ph. D
Martha Jeaneth Patiño Barragán Ph. D
Editorial
Ciencia e Ingeniería Neogranadina, vol. 33, núm. 2, pp. 7-12, 2023
Universidad Militar Nueva Granada
resúmenes
secciones
referencias
imágenes
Carátula del artículo

Editorial

Editorial

Martha Jeaneth Patiño Barragán Ph. D
Autor Independiente, Colombia
Ciencia e Ingeniería Neogranadina, vol. 33, núm. 2, pp. 7-12, 2023
Universidad Militar Nueva Granada

El presente número de la revista Ciencia e Ingeniería Neogranadina comprende un conjunto de artículos, resultado de un ejercicio de investigación en distintas áreas de la ingeniería que, vistas en conjunto, aportan innovaciones metodológicas, procesuales, experimentales y tecnológicas a las discusiones más actuales en cada disciplina.

El trabajo titulado Modelo no lineal de la interacción dinámica poblacional del suicidio propone un enfoque integral que combina análisis matemático, modelado no lineal y proyecciones futuras para entender y abordar el fenómeno del suicidio en el departamento del Tolima. Utilizando todas estas herramientas, el estudio plantea que el departamento del Tolima muestra un aumento en los casos de suicidio, y destaca que una gran proporción de la población vulnerable está expuesta a factores desencadenantes, mientras que solo un pequeño porcentaje recibe tratamiento, con una tasa de efectividad también baja. A través de los resultados de la investigación se hace un llamado a los entes de salud pública para desarrollar estrategias que reduzcan las tasas de mortalidad por esta causa.

La investigación se centra en el análisis y modelado del fenómeno del suicidio en el departamento del Tolima, mediante el uso de datos demográficos proporcionados por el Departamento Administrativo Nacional de Estadística (DANE), así como boletines epidemiológicos de SIVIGILA. Estos datos incluyen información demográfica y epidemiológica relacionada con el suicidio. El modelo matemático propuesto es un modelo no lineal, el cual, partiendo de condiciones iniciales y parámetros específicos, y mediante la utilización del método de Levenberg-Marquardt, establece relaciones complejas entre varias variables consideradas; y permite describir la dinámica de las poblaciones involucradas, especialmente poblaciones vulnerables, con una proyección futura a 2034. Así mismo, para el análisis numérico, el modelado y las proyecciones, se utiliza el software Matlab R2021a, relacionando las variables mediante un diagrama causal, el cual aporta a la conceptualización de las relaciones y supuestos entre las variables.

El estudio Integración espacial de contenidos en entornos de realidad extendida proporciona una comprensión profunda sobre cómo los principios multimedia afectan la experiencia de aprendizaje en entornos de realidad extendida (XR), que brindan orientación clave para futuros desarrollos y aplicaciones educativas.

La investigación se enfoca en la realidad extendida (XR), la cual abarca tecnologías inmersivas como la realidad virtual (VR), la realidad mixta (MR) y la realidad aumentada (AR), utilizadas en entornos inmersivos de aprendizaje (ILE). No obstante, con el fin de asegurar la efectividad de estas tecnologías, se precisa comprender el impacto de los principios multimedia, especialmente en la integración espacial de contenidos en entornos de realidad extendida (XR), la cual se refiere a la incorporación y alineación de información digital, objetos virtuales o datos tridimensionales en el espacio físico del usuario, de manera que parezcan coexistir y estar interactivamente vinculados con el entorno real. El estudio llevó a cabo una revisión sistemática para identificar cómo se aplican estos principios y cómo influyen en la integración espacial del contenido en entornos de XR. Los resultados revelan la influencia de tres características vinculadas a las diferencias entre usuarios. Se identificaron técnicas que favorecen la integración espacial y se propuso una taxonomía al respecto. Además, se analizaron atributos de configuración del entorno virtual 3D y su impacto en la carga cognitiva de los aprendices.

La investigación Evaluación de diferentes densidades de siembra en el cultivo de Dianthus bar-batus variedad Green Ball y Kiwi Mellow propone estrategias de manejo del espacio de siembra que pueden mejorar significativamente la productividad y rentabilidad en el cultivo de clavel, con el fin de proporcionar información valiosa para las empresas floricultoras colombianas que buscan optimizar recursos y promover la innovación en su producción. La metodología se centra en la evaluación de diferentes densidades de siembra y contenedores para las variedades de clavel Dian-thus barbatus, Kiwi Mellow y Green Ball, con el objetivo de mejorar la productividad y rentabilidad en el sector floricultor colombiano. Se utilizó un diseño completamente aleatorizado con cuatro tratamientos por variedad, modificando la densidad de siembra y el número de contenedores por cama.

Los resultados indican que la densidad de siembra de 54 plantas por m2 en un contenedor por cama tuvo un impacto significativo en la productividad, aumentando los rendimientos en un 30 % y 20 % para Kiwi Mellow y Green Ball, respectivamente, en comparación con la densidad utilizada comúnmente en la zona. A pesar del aumento en la densidad, no se observaron efectos negativos en los parámetros de calidad de la flor ni en las pérdidas por calidad nacional.

Se destaca que la variedad Kiwi Mellow mostró un 3,16 % más de unidades SPAD en promedio que Green Ball. Además, se encontró que la mejor rentabilidad para ambas variedades se logró con la densidad de siembra de 54 plantas por m2, superando en un 34 % y 15 % al tratamiento convencional de la zona para Kiwi Mellow y Green Ball, respectivamente.

El artículo titulado Inteligencia artificial y la estadística multivariada en el análisis del comportamiento de PM2.¡ en la ciudad de Barranquilla sugiere que, con variables accesibles y manejables como datos meteorológicos, hora, día y mes, se puede desarrollar una herramienta de pronóstico altamente útil para la gestión de la calidad del aire. La metodología propuesta no solo ofrece información sobre cómo las variables meteorológicas afectan el comportamiento del PM2.5, sino que también provee una herramienta práctica para prever y abordar situaciones de incumplimiento de los límites permitidos, que favorezcan la implementación de estrategias efectivas de contingencia gubernamental.

Dicha metodología utiliza modelos estadísticos multivariados para comprender cómo diversas variables meteorológicas influyen en el comportamiento del PM2.5. Se aplicó un análisis de varianza multifactorial para evaluar el efecto del día, la hora y el mes en la concentración promedio de PM2.5.

La combinación de inteligencia artificial y estadística multivariada en el análisis del comportamiento del PM2.5 (partículas suspendidas en el aire con un diámetro aerodinámico menor o igual a 2.5 micrómetros) es una estrategia avanzada que aprovecha las fortalezas de ambas disciplinas para comprender, predecir y tomar decisiones relacionadas con la calidad del aire. Entre los beneficios de esta metodología encontramos una importante mejora en la precisión de las predicciones y la capacidad de identificación de patrones, así como un monitoreo más eficiente de la calidad del aire y la identificación de factores clave que afectan el comportamiento del PM2.5, a fin de facilitar la toma de decisiones informada para la gestión y mitigación de la contaminación del aire. Por lo anterior, la combinación de inteligencia artificial y estadística multivariada en el análisis del PM2.5 proporciona herramientas avanzadas para comprender y abordar los desafíos asociados con la calidad del aire.

El artículo titulado Influencia de la meticulosidad en la adecuación funcional y mantenibilidad de sistemas orientados a objetos aborda la relación entre la personalidad y la calidad del software, específicamente en términos de mantenibilidad en sistemas orientados a objetos y la adecuación funcional del producto. Se llevaron a cabo evaluaciones de grupos homogéneos formados según la dimensión de meticulosidad, utilizando una herramienta computacional basada en algoritmos genéticos y considerando la personalidad de los participantes como criterio de agrupación.

Mediante esta metodología, el objetivo de este trabajo consistió en evaluar los efectos que tiene la formación de grupos homogéneos bajo la dimensión de la meticulosidad, con respecto a la mantenibilidad en sistemas orientados a objetos y la adecuación funcional del producto software. Para ello se contó con un total de 76 participantes, se empleó una herramienta computacional basada en un mecanismo de algoritmo genético, que consideró la personalidad de los estudiantes como criterio de agrupación. El resultado mostró que no existe una diferencia significativa que permita afirmar que la formación de grupos homogéneos haya obtenido mejores resultados con respecto a las métricas Chidamber & Kemerer (CK) y a la adecuación funcional. A pesar de estos resultados, las puntuaciones promedio de las métricas Coupling Between Objects (CBO) y Response for a Class (RFC) en el grupo experimental estuvieron ligeramente por encima del umbral deseado y ligeramente por debajo del promedio del grupo de control. Esto indica que la meticulosidad en la formación de grupos podría afectar la complejidad del diseño, la modularidad, la propensión a fallas y la facilidad de realizar pruebas en las clases. Se sugiere seguir explorando qué dimensiones específicas de la personalidad pueden influir en los diferentes atributos de calidad del software y, en general, de la ciencia de la computación.

Y aunque los hallazgos actuales no mostraron diferencias significativas en todas las métricas evaluadas, la investigación destaca la importancia de considerar la personalidad en la formación de equipos de desarrollo de software y sugiere oportunidades para investigaciones futuras que exploren dimensiones específicas de la personalidad y su impacto en la calidad del software.

El trabajo Coordinación mano ojo de un brazo robótico utilizando una cámara estéreo presenta la implementación de un algoritmo de visión por computadora en Python para estimar la posición de un objeto utilizando una cámara estéreo. El proceso de estimación de posición se complementa con un algoritmo de corrección de posición basado en el algoritmo de optimización Gradient Descent y el proceso de coordinación mano ojo. Los resultados experimentales muestran que una mayor resolución de imagen conduce a una mejor estimación de la posición del objeto. La comunicación inalámbrica se utiliza para enviar los datos de posición al controlador del brazo robótico. El modelo de cámara estenopeica se utiliza para estimar la posición del objeto. El artículo también describe el proceso de calibración de la cámara estéreo, las técnicas de segmentación de objetos, la arquitectura del sistema físico y los procesos de comunicación entre componentes. Estos resultados indican que la combinación de la visión artificial, el control del brazo robótico y el algoritmo de corrección ha demostrado ser efectiva para lograr una estimación precisa y una ejecución exitosa de la tarea. El estudio destaca la importancia de la calidad de la imagen en la etapa de visión, así como la utilidad de los algoritmos de corrección para mejorar la precisión en las tareas de manipulación por parte del brazo robótico.

La implementación del algoritmo de corrección de posición enfrentó desafíos relacionados con la sensibilidad de la estrategia de segmentación de color a los cambios en las condiciones de iluminación, lo que afectó negativamente el rendimiento del algoritmo. Para abordar esto, el estudio propuso el uso de algoritmos de detección de objetos más sofisticados en trabajos futuros, como redes neuronales convolucionales (CNN) como "Solo miras una vez" (YOLO), detector de disparo único (SSD) y basado en regiones más rápidas.

El artículo Detalle de la información geométrica de los niveles de información del modelo (LÜD) 3D para los proyectos de infraestructura vial urbana en Bogotá D.C. analiza la importancia de definir el nivel geométrico de detalle (LOD) para cada entidad en un modelo 3D de infraestructura vial urbana en Bogotá, Colombia. Menciona los documentos de antecedentes y referencia, así como los LOD establecidos por el Instituto de Desarrollo Urbano (IDU) en proyectos recientes. El artículo enfatiza la necesidad de separar los componentes de diseño por entidades, ya que cada entidad requiere un LOD diferente, incluso dentro de la misma fase de diseño y sostiene que la implementación de los niveles de desarrollo en BIM aporta claridad, eficiencia y mejora la toma de decisiones a lo largo del ciclo de vida de un proyecto desde la concepción hasta la operación y mantenimiento; además, aborda la creciente importancia de la metodología Building Information Modeling (BIM) en el sector de la infraestructura, especialmente en Bogotá, donde el Instituto de Desarrollo Urbano (IDU) ha estado trabajando en su implementación desde el 2020. Se destaca que, a pesar de los esfuerzos del IDU, aún hay aspectos por definir en la incorporación de los requisitos BIM en los proyectos, particularmente en relación con los niveles de información geométrica (LOD) para cada entidad involucrada en las distintas fases del proyecto.

El estudio identifica los productos desarrollados en cada fase del diseño, basados en la Guía de Maduración de Proyectos del IDU, y los correlaciona con los LOD establecidos por el apéndice contractual BIM V.5. La conclusión principal del artículo es que es necesario separar los componentes de diseño por entidades, ya que cada una responde a un LOD distinto, incluso dentro de una misma fase de diseño. Este hallazgo destaca la necesidad de una mayor precisión en la definición de LOD, considerando las diferentes entidades geométricas involucradas en cada fase del proyecto. La separación por entidad permitiría adaptar los requisitos BIM de acuerdo con las características específicas de cada componente del proyecto para mejorar la eficiencia y la coherencia en la implementación de la metodología BIM. Este artículo proporciona una contribución valiosa al proceso de maduración y definición de estándares BIM en Bogotá y puede servir como base para futuras investigaciones y ajustes en la implementación de BIM en proyectos de infraestructura en la región.

La relevancia de este estudio radica en que al definir el nivel de detalle (LOD) para cada entidad en un modelo 3D de infraestructura vial urbana se permite separar los componentes de diseño por entidades, ya que cada uno responde a un LOD diferente, incluso dentro de la misma fase de diseño. Esta separación garantiza que cada componente esté representado con precisión según sus requisitos y características específicas, lo que contribuye a la precisión y eficacia generales del modelo 3D.

La investigación titulada Evaluación mecánica de una mezcla asfáltica caliente (WMA) utilizando aditivos modificadores de viscosidad se centra en la tecnología de mezcla asfáltica tibia (WMA), un avance significativo en la industria asfáltica que busca minimizar las emisiones de gases de efecto invernadero. El estudio evaluó experimentalmente el impacto de dos aditivos WMA en las características del ligante asfáltico y la mezcla asfáltica, con el objetivo de comprender su influencia en el rendimiento y las propiedades del asfalto. La tecnología de mezcla asfáltica tibia ha ganado aceptación en la industria debido a sus beneficios ambientales, económicos y de seguridad. Su adopción sigue creciendo en proyectos de construcción de carreteras y pavimentación como una medida para abordar preocupaciones medioambientales y mejorar la eficiencia en la producción de asfalto.

Cabe mencionar que esta es una innovación en la industria del asfalto que busca reducir las temperaturas de mezclado y compactación en comparación con los métodos tradicionales de mezcla en caliente. En los procesos convencionales, las mezclas asfálticas se producen y aplican a temperaturas relativamente altas, generalmente por encima de los 150 °C (300 °F). En contraste, la tecnología WMA permite trabajar a temperaturas más bajas, típicamente entre 20 °C y 40°C menos que las mezclas en caliente.

Uno de los hallazgos destacados en la investigación fue el impacto significativo de los aditivos en la propiedad de viscosidad del ligante asfáltico. Ambos aditivos mostraron una reducción de la viscosidad a medida que aumentaba la temperatura en la mezcla, lo cual es relevante para la aplicación y manipulación del asfalto.

En cuanto a las mezclas asfálticas, se observó que la adición de los aditivos WMA tendió a aumentar la densidad aparente, los vacíos llenos de asfalto y la estabilidad Marshall. Además, se redujo el contenido de vacíos de aire en las mezclas. Un resultado importante fue la disminución del contenido óptimo de betún, que se puede reducir entre un 0.2 % y un 0.4 %, lo que indica un impacto positivo en la eficiencia del uso de recursos.

Estos resultados sugieren que la incorporación de aditivos WMA no solo tiene beneficios medioambientales al reducir las emisiones de gases de efecto invernadero, sino que también puede mejorar las propiedades y el rendimiento de las mezclas asfálticas. Estos hallazgos son valiosos para la industria asfáltica, ya que proporcionan información sobre cómo optimizar la composición de las mezclas asfálticas para un rendimiento mejorado y sostenible.

El artículo titulado Evaluación comparativa de los algoritmos de aprendizaje automático Support Vector Machine y Random Forest: efectos del tamaño del conjunto de entrenamiento enfatiza la complejidad asociada con la elección y configuración de modelos de aprendizaje automático, subrayando la importancia de considerar cuidadosamente las proporciones de clases y la homogeneidad en las distribuciones de datos para lograr predicciones precisas en la clasificación de uso del suelo y cobertura terrestre. Se concluyó que alcanzar precisiones de usuario superiores al 90 % en clases específicas requiere asignar cuidadosamente muestras de entrenamiento que cubran porcentajes específicos del área clasificada.

Para ello, se evaluó el rendimiento de los algoritmos bajo un modelo de segmentación de imágenes basado en objetos (OBIA) para asegurar la precisión de los modelos clasificadores, lo que implica su capacidad para realizar una clasificación precisa y eficiente de objetos específicos en una imagen, teniendo en cuenta la estructura y las relaciones espaciales entre los píxeles que forman dichos objetos.

Metodológicamente, se comparó el desempeño de los algoritmos Support Vector Machine (SVM) y Random Forest (RF) en la clasificación del uso y cobertura del suelo en Barranquilla, Colombia, y se destacó la importancia de considerar las proporciones de clase y la homogeneidad de la distribución de datos para realizar predicciones precisas. Así mismo, se encontró que SVM superó consistentemente a RF en términos de precisión. También, enfatiza la importancia de asignar muestras de entrenamiento que cubran ciertos porcentajes del área clasificada para lograr una alta precisión en clases específicas de cobertura del suelo.

El estudio se enfocó en la evaluación del rendimiento de los algoritmos Support Vector Machine (SVM) y Random Forest (RF) en un modelo de segmentación de imágenes basado en objetos (OBIA) aplicado en la zona metropolitana de Barranquilla, Colombia. El objetivo principal fue analizar cómo las variaciones en el tamaño de los conjuntos de entrenamiento y el desequilibrio en las clases de cobertura terrestre afectan la precisión de los modelos clasificadores y evaluar cómo las variaciones en el tamaño de los conjuntos de entrenamiento y el desequilibrio en las clases de cobertura terrestre afectaron la precisión general y el coeficiente Kappa de los modelos SVM y RF bajo un enfoque OBIA.

Los resultados revelaron consistentemente un mejor rendimiento del algoritmo SVM en comparación con RF, según los valores del coeficiente Kappa y la precisión general. Se destacó que la imposibilidad de calibrar ciertos parámetros de SVM en ArcGIS Pro presentó desafíos adicionales durante el proceso.

Estos hallazgos contribuyen a la comprensión de los desafíos y consideraciones clave en la aplicación de algoritmos de aprendizaje automático en el ámbito de la clasificación de imágenes para la cobertura terrestre, ya que proporcionan información valiosa para futuros estudios y aplicaciones en este campo.

Material suplementario
Notas
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS4R por Redalyc