Martínez Álvarez, AlexánderMosquera De La Cruz, José HernandoJamioy Cabrera, Juan DavidRodríguez Téllez, Gabriel Alejandro2024-06-172024-06-172023https://vitela.javerianacali.edu.co/handle/11522/2714Se desarrolló una arquitectura basada en el modelo de arquitectura cognitiva SOAR, la cual permite a los usuarios enseñarle tareas de clasificación de objetos cúbicos por color al robot colaborativo UR3 mediante interacción multimodal comandada por gestos y voz. La evaluación de la arquitectura fue realizada por siete sujetos de prueba, a quienes se les indicaron los comandos gestuales y de voz para enseñarle al robot la tarea de clasificación por color de objetos cúbicos. A partir de estas interacciones se evaluó el desempeño, ejecutando tanto pruebas cuantitativas como cualitativas. En las pruebas cuantitativas se ideó un protocolo que permitió evaluar un total de 588 interacciones verbales, 252 interacciones gestuales, y 63 interacciones verbales y gestuales. El porcentaje de reconocimiento de las interacciones fue del 98.41% para los comandos de voz, 81.35 % de las gestuales, y 80.95% de las multimodales. Además, el robot ejecutó la clasificación por color de objetos cúbicos el 100%. En las pruebas cualitativas se les realizaron a los usuarios cinco preguntas sobre su percepción sobre las interacciones verbales, gestuales, y multimodales, utilizando como opciones de respuesta una escala Likert. Las encuestas mostraron una alta satisfacción sobre la arquitectura propuesta durante la interacción del usuario con el robot.18 p.application/pdfspaArquitectura cognitivaAprendizaje en robotsClasificación y robótica colaborativaArquitectura cognitiva aplicada en procesos de clasificación para un robot colaborativohttp://purl.org/coar/resource_type/c_7a1fhttps://creativecommons.org/licenses/by-nc-nd/4.0/http://purl.org/coar/access_right/c_14cb