Proyecto A, RES.SECyT N°: 203/2014, Anexo I, fol. 45.
Director: Prof. Mgter. Sergio Patricio Poblete Barbero
Integrantes: Prof. Martín Castro, Lic. Sabrina Chayep, Lic. Basilio del Boca
El presente proyecto se propone como objetivo el desarrollo de una plataforma digital de procesamiento integrado de imagen y sonido para su aplicación en composición asistida multimedia. Dicha plataforma presenta como cualidad distintiva en su diseño el énfasis puesto en la consideración de las capacidades y formas de procesamiento cognitivo de la información perceptual acústica y visual por parte del receptor. El enfoque analítico está propuesto principalmente desde la semiótica cognitiva, una rama de la semiótica aplicada en la que confluyen los estudios sobre la producción de semiosis propios de la semiótica, principalmente a partir de una línea peirceana, en combinación con los últimos avances efectuados en el campo de las ciencias cognitivas. Se toman como base para el presente proyecto los resultados obtenidos hasta la fecha en el trabajo de investigación titulado “La interpretación de las imágenes acústicas y visuales en la obra de arte multimedia: aproximación analítica desde el enfoque semiótico cognitivo”, dirigido inicialmente por el prof. Lic. Juan Ángel Magariños de Morentin, y dirigido actualmente por el Dr. Leonardo Waisman, elaborado por el Director del presente proyecto, actualmente en su etapa final, como trabajo de Tesis correspondiente al Doctorado en Artes de la Facultad de Artes de la Universidad Nacional de Córdoba. Dada la amplitud y complejidad de la problemática para su abordaje, la investigación ha sido planteada en varias etapas, con resultados exitosos obtenidos en las dos primeras etapas ya cumplimentadas. La Primera Etapa (2009-2010) estuvo dedicada a la determinación de las posibles operaciones de puesta en relación que es conveniente realizar textualmente con los contenidos acústicos y visuales, a efectos de que las mismas alcancen una pertinencia significante para un receptor o interpretante-intérprete. La Segunda Etapa (2011-2013) se dedicó al desarrollo de un software específico para la generación y procesamiento de materiales acústicos y visuales incorporando la posibilidad de un control interactivo físico en tiempo real. Para ello se estudiaron los entornos de programación openFramework (basado en lenguaje C++), y Processing (basado en lenguaje Java), ambos especializados en el procesamiento de imagen y sonido. Se integró el sensor de movimiento Kinect de Microsoft para el control interactivo físico de los procesos, cuyo software de control fue abierto al libre acceso por Microsoft a partir de noviembre de 2011. Esta etapa finalizó con el desarrollo de un prototipo de sistema de procesamiento de datos, con control interactivo en tiempo real, el cual fue propuesto para su desarrollo comercial en un proyecto incorporado en noviembre de 2013 a la Incubadora de Empresas de la Universidad Nacional de Córdoba. Se realizaron cinco presentaciones públicas de este prototipo en distintos eventos durante 2013 organizados por organismos de nuestra Universidad (Cuatrociencia, Noche de los Museos, UNC Innova, Acto Colación Grados Fac. Artes, Expo Emprendedores Creativos de las Jornadas Creativas-Fac. Ciencias Económicas). La Tercera Etapa (2014-2015) está orientada a la continuación de la exploración ya iniciada en 2011 de las posibilidades de aplicación del lenguaje OpenCyC, basado en lenguaje LISP, utilizado en minería de datos en web semántica, para su aplicación en la manipulación y control semántico del discurso acústico-visual.
Nota
1) I+D+i (Investigación, desarrollo, innovación): expresión que hace referencia al ciclo dinámico que comprende las etapas de investigación pura e investigación aplicada (teoría, síntesis, exploración, hipotetización), conducentes a una etapa de desarrollo (diseño, desarrollo, prueba), retroalimentadas a través de un proceso de innovación (implementación, estudio de eficacia, mejora, aumento progresivo de la eficacia).