Los nuevos estándares de comunicación de código abierto irrumpen con fuerza
Uno de los retos más importantes en la fábrica del futuro es la interconexión entre elementos y la elevada tasa de intercambio de información. Son muchos los nuevos protocolos de comunicación industriales que se plantean en una nueva fábrica conectada. El Ethernet Industrial el Ethernet aplicada a un entorno industrial, los protocolos de comunicación IoT e IIoT y, en un futuro no muy lejano, el 5G intentarán aunar de forma sencilla toda esta información que llega de los elementos conectados con el fin de lograr un mejor determinismo y tasas de transmisión de datos mucho más elevadas que las actuales. Desde el punto de vista de la monitorización de procesos y redes industriales, los protocolos de comunicación de código abierto frente a los propietarios se adaptan mucho mejor a las necesidades ya que la información es mucho más fácilmente accesible y estructurada. Durante la Hannover Messe pudimos observar que los los siguientes estándares son las tendencias que seguirá el mercado en los próximos años, entre otros.
- OPC-UA: OPC es el estándar de interoperabilidad para el intercambio seguro y fiable de los datos en un entorno de automatización industrial. La demanda de la industria por establecer una comunicación directa entre la tecnología de campo y las diferentes aplicaciones de supervisión útiles para los procesos industriales (ERP, SCADAs, MES…) llevaron a la creación de OPC, un marco para las comunicaciones en tiempo real con múltiples beneficios, ya que abstrae del hardware y permite una sencilla integración de elementos y adaptación a cambios.
- EtherCAT: EtherCAT Ethernet for Control of Automation Technology, en español: "Ethernet para el Control de Tecnología de Automatización") es un protocolo informático de código abierto y alto rendimiento creado y desarrollado por Beckhoff Automation. Los medios de EtherCAT encajan bien para los ambientes industriales o de control puesto que puede ser accionado con o sin interruptores. EtherCAT es un estándar abierto que se ha publicado como especificación del IEC basada en entrada del grupo de la tecnología de EtherCAT.
- DDS: Data Distribution Service (DDS) es un estándar de middleware máquina a máquina (M2M) promovido por Object Management Group (OMG) cuyo objetivo es permitir intercambios de datos escalables, en tiempo real, fiables, de alto rendimiento e interoperables entre editores y suscriptores, es decir, para la comunicación M2M.
- MQTT / AMQP: Son protocolos de comunicación para elementos típicamente de IoT y están muy extendidos en procesos de manufactura que trabajan con sensores descentralizados.
- 5G: La comunicación por excelencia del futuro, una velocidad de transmisión de datos 1.000 veces mayor que la de la red LTE. Las redes 4G actuales no son lo suficientemente robustas como para controlar los productos y servicios del mañana. Además de aumentar la velocidad, las redes 5G ofrecerán menor latencia, mayor fiabilidad, mejor conectividad desde más lugares; también una mayor capacidad, permitiendo que más dispositivos estén conectados al mismo tiempo.
Análisis predictivo
Una vez que tenemos los datos centralizados, el siguiente paso el trabajar con ellos, ya que de nada sirve la información sin su análisis. La tendencia en el mercado es la de predecir fallos y problemas antes de que ocurran, como parece lógico. Esta predicción facilita labores de mantenimiento y genera ahorro de costes tanto por elementos que se estropean como el aumento de la eficiencia (OEE) de las líneas de producción, al haber mucho menos tiempo de máquina parada. El análisis predictivo, que puede ser realizado mediante herramientas y algoritmos complejos de inteligencia artificial (AI) o de aprendizaje o machine learning, tiene un impacto directo y positivo en la cuenta de resultados de la empresa a final de mes.
Ya no hablamos de BigData sino de
Edge Computing. El Edge Computing reduce de forma significativa la carga de datos a manejar realizando un preprocesamiento de los mismos antes de su ingesta, lo que permite aliviar el cálculo y potencia de almacenamiento de los equipos, y por ello, reducción de costes derivado de los elementos hardware y software encargados de la computación y tratamiento de estos datos.
Los datos en la nube
¿Y dónde almacenamos toda esta información? Actualmente, y cada vez más, la tendencia es enviarlo todo a la nube, si bien es cierto que las empresas industriales son más reticentes a esto y justifican el dejar los datos en local (premise) a la seguridad de la red y los cyberataques. Las plataformas por excelencia AWS, Microsoft Azure o Google Cloud, son muy fiables en cuanto a seguridad se refiere y proporcionan una flexibilidad muy grande al no necesitar las empresas tener la infraestructura en su casa y ser un servicio gestionado, y sobre todo la posibilidad de crecer y decrecer de una forma muy sencilla, y sobre todo pagar por lo que realmente se está utilizando evitando sobre- o subdimensionar la infraestructura del CPD