Big data en el sector agroalimentario La importancia de los datos en las empresas del agro

  • El responsable del Departamento Tecnológico de Hispatec Analitycs radiografía la calidad de esta información a la hora de ayudar a tomar decisiones

Alberto Oikawa es ingeniero técnico en Informática por la Universidad de Alcalá. Alberto Oikawa es ingeniero técnico en Informática por la Universidad de Alcalá.

Alberto Oikawa es ingeniero técnico en Informática por la Universidad de Alcalá.

Alberto Oikawa es el responsable del Departamento Tecnológico, Informático y Técnico de Hispatec Analitycs, en concreto, el CTO (Chief Technical Officer), un experto en analítica de datos, que ha escrito un artículo de Opinión en Agrointeligencia.com, el blog de la empresa almeriense Hispatec, en el que desgrana una propuesta de valor tangencial (o no tan tangencial) derivada de la ejecución de proyectos en este ámbito.

A su juicio, cuando una empresa agroalimentaria se lanza a la ejecución de un proyecto de analítica avanzada, pongamos el ejemplo de una predicción temprana de producción, se lanza a la aventura de ver, analizar y catalogar todas las fuentes de información que pueden aportar valor al indicador objetivo.“Podemos hablar de tareas de manejo, muestreos, conteos, datos climáticos, inventarios plantas productivas, etc... Muchas veces este tipo de información está distribuida, en el mejor de los casos, en distintos sistemas e incluso es algo relativamente normal que este tipo de información de campo esté albergada en distintos archivos Excel en una colección interesante de PC’s”, explica.

Oikawa apunta que si pensamos en la toma de decisiones, parece claro que en esta parte un dato como la cantidad de materia prima que voy a producir tiene un peso importante en distintas decisiones estratégicas; ¿Cuantos operarios contrato para la recolección?, ¿Cuantos embalajes compro? ¿Cuándo? ¿Cuanto podre vender? ¿En qué momento? ¿Qué pasa si el personal no es consciente de la importancia del registro de datos? ¿Qué pasa si piensan que es una tarea aburrida que no le importa a nadie?, se pregunta. Para él, pueden darse casos en el que el personal, copie o pegue datos de una campaña a otra o rellene de manera sistemática los formularios sin dar importancia al dato en sí, a la calidad del mismo.

“Muchas veces pensamos en que el histórico de información es un factor limitante pero pocas veces pensamos en la calidad o en su defecto en la veracidad del dato. Damos por sentado que nuestros procedimientos están bien, que son correctos para recoger la información que necesitamos sin pararnos a pensar en el cambio de paradigma en el que estamos viviendo”, señala.

Además, apunta que queremos los datos para analizarlos y extraer conocimiento de ellos, no se trata de tener por tener y debemos pensar en el objetivo analítico de los mismos para asegurarnos de estar manejando la cantidad, las fuentes y la granularidad necesaria.

“Si buscamos un indicador en función del sector de riego, debe de poder llegar a ese nivel desgranando los datos. Si me limito a recoger datos a nivel de parcela jamás podré tener un indicador a nivel de sector. Lo contrario sería magia y recordar, esto no es magia son matemáticas”, indica.

Si para la práctica de tareas de análisis partimos de información sesgada o errónea posiblemente a las conclusiones a las que lleguemos serán erróneas o tendrán sesgo con respecto a la realidad también.“Debemos concienciar a nuestra organización en todos sus niveles de la importancia de la calidad de nuestros datos. Concienciar de que como en toda cadena, la fuerza de la misma depende de lo fuerte que sea el eslabón más débil. Y en este caso, en la cadena de valor del datos, cada eslabón es vital para conseguir el objetivo principal, un indicador lo más cercano a la realidad posible”, dice.

Para él, es por esto por lo que las compañías deben potenciar políticas y facilitar herramientas que permitan la correcta digitalización de información en toda la cadena y a través de todos sus actores. Que además haga que la información perdure y genere conocimiento que quede para la compañía.

“La ejecución de estos proyectos no solo persigue el objetivo de desarrollar un modelo analítico de mayor o menor índice de acierto si no que además embebe un servicio de auditoría sobre los datos, realizando un levantamiento de toda esta información disponible y detectando anomalías en los procesos de digitalización, en la trazabilidad y gestión de la calidad de los datos”, culmina.

¿Quién es Alberto Oikawa?

Alberto Oikawa es ingeniero técnico en Informática por la Universidad de Alcalá. Actualmente desempeña el rol de CTO en Hispatec Analitycs. Ha desarrollado la misma tarea en Bynse y previamente fue cofundador de Cubenube,start-up de servicios de datos y generación de información para ayudar a las empresas a tomar mejores decisiones, a través de una plataforma tecnológica de desarrollo propio basada Big Data y Cloud Computing.

Anteriormente fue director del departamento de TI del Centro de Laboratorios y Servicios Industriales de la Comunidad de Madrid que centra su actividad en la Metrología Legal. Oikawa es director de programas y profesor de tecnologías BigData en entidades de formación y escuelas de negocio como la Escuela de Organización Industrial, CIFF Business School, Colegio Oficial de Ingenieros de Telecomunicaciones, etc…Oficial de Ingenieros de Telecomunicaciones, etc.

Etiquetas

Comentar

0 Comentarios

    Más comentarios