AUTOR: Tomás Dávalos
FUENTE: AGENCIA INFORMATIVA CONACYT
Aguascalientes, Aguascalientes. (Agencia Informativa Conacyt).- Julieta Domínguez Soberanes, profesora investigadora de la Dirección en Negocios Gastronómicos de la Universidad Panamericana campus Aguascalientes, lidera un proyecto que tiene por objetivo estandarizar la producción de mercancías cárnicas, para que después de su procesamiento industrial los productos cuenten con todas las características —como tiempo de cocción y preparación— que garanticen su calidad para comercializarlas.
“En el proyecto participan tres alumnos, quienes se dedicarán a conseguir información, pues nosotros tenemos que considerar todas las características físico-químicas, como el color, pH, y también se analiza la parte sensorial, como la textura, el olor, sabor, entonces, todo esto se analiza para poder alimentar un algoritmo. Mucha de la información se obtiene en la propia empresa, porque ellos conocen por experiencia muchas cosas, pero nuestra labor como investigadores es explicar muchos de los fenómenos experimentales que pasan”, indicó.
Domínguez Soberanes precisó que el proceso para recopilar toda esa información y su posterior análisis demorará cerca de un año, pues se tendrá que explicar desde el punto de vista de la química de alimentos qué es lo que ocurre a nivel microscópico durante el proceso de elaboración, para con base en ese entendimiento poder fijar algunas variables que eviten que se presenten algunos fenómenos que afecten la calidad del producto final.
“Las personas involucradas evaluamos todas las variables físico-químicas y sensoriales de los productos, a su vez, trabajamos con las personas que están haciendo un algoritmo, la maestra Claudia (Nallely Sánchez Gómez) es quien está trabajando en su desarrollo con base en lo que nosotros y la empresa le estamos comentando. Cuando ya el algoritmo esté listo, se va a introducir a un sistema inmótico, el cual básicamente va a determinar cuáles son las temperaturas y tiempos óptimos para lograr un producto de acuerdo con las características sensoriales que la empresa busca”, explicó.
Para finalizar, la profesora investigadora de la Dirección en Negocios Gastronómicos comentó que uno de los objetivos de la empresa es que este proceso se pueda patentar, con lo cual se podrían llegar a acuerdos con otras compañías del ramo para venderles la licencia, pues será un proceso certificado y estrictamente analizado, con el cual podrán llegar a elaborar un producto adecuado y con las características sensoriales óptimas para una exitosa comercialización.
Variables y modelos
Claudia Nallely Sánchez Gómez, jefa de la Academia de Cómputo en la Facultad de Ingeniería de la Universidad Panamericana campus Aguascalientes, señaló que su equipo es el encargado de importar toda la información para construir un modelo sobre la probabilidad de que cierta mezcla de ingredientes tenga una buena calidad.
“La función de mi equipo consiste prácticamente en encontrar una forma de entender los datos que proporcionen, con datos me refiero a los tipos de carne, los tiempos de cocción y temperaturas, cuánto tiempo vas a freír ciertas carnes. Todos estos datos que nos den es analizarlos primero para entenderlos, con entenderlos me refiero a ver qué carnes son las que te generan un producto de mejor calidad, cómo podemos hacer unas mezclas de carnes de diferentes tipos de grasas que nos den una buena calidad y aparte que a las personas que los vayan a consumir les guste este tipo de mezcla”, sostuvo.
Puntualizó que a partir de ello se deben identificar cuáles otras variables, además del tiempo de cocción, podrían influir, por ejemplo, dijo, se prevé que la temperatura sería un factor muy importante al igual que los aditivos que se le pone a la mezcla de cárnicos para que tenga un mejor sabor, los cuales se buscarán medir por medio de un valor numérico para determinar si realmente son importantes.
“(Para ello) nos dan la información en una hoja de Excel: nos dicen qué tipo de carnes tienen, en el pasado con datos históricos qué carnes, en cuánto tiempo y qué temperaturas se han utilizado. Nosotros la entendemos con gráficas, con modelos matemáticos, con modelos probabilísticos, y a partir de ahí tratamos de entender esa información para pasarla a un modelo para representarla y decir ‘en general tú estás haciendo esto’”, detalló Sánchez Gómez.
Informó que se pretende aplicar el machine learning, que consiste en tomar datos históricos que arroje una base de datos de información, para a partir de ahí crear un modelo que genere datos nuevos que se puedan aplicar en cualquier industria, incluida la alimenticia —a pesar de la creencia de que no va muy de la mano con los modelos computacionales, pero el desarrollo de este proyecto demuestra lo contrario.
“Con ese modelo lo que pretendemos es que llegue un momento en que el programa mismo te diga qué materias primas tenemos que tomar de todo lo que nuestros proveedores nos dieron (…) Eso es lo primero, tratar de optimizar para obtener una buena calidad y también que los insumos que tienes no se te echen a perder, o sea, tomar lo mejor, optimizarlo, eso es lo primero que va a hacer el programa, y todo esto va a ser automático. La segunda parte es que una vez que tengas tus materias primas, que sepas que con eso lo vas a hacer, el programa te va a decir cuánto tiempo necesitas freírlo, a qué temperatura, también te va a decir en cuánto tiempo tienes que poner cada aditivo”.
Para concluir, la jefa de la Academia de Cómputo en la Facultad de Ingeniería precisó que el método sería probabilístico porque no siempre va a ser certero, ya que depende de diversas variables que no están relacionadas en exclusiva con el proceso, por ejemplo, mencionó, la calidad de las grasas en ocasiones podría ser mala por algún error del proveedor o puede haber la presencia de algo en el ambiente que perturbe el procesamiento de los cárnicos, por ello se hacen cálculos previendo que 90 por ciento de la producción va a salir bien y se dejará un aproximado de 10 por ciento para el error.