Desafíos de Big Data para sector eléctrico

  • Opinión

  • Hace más de 5 meses

  • abril 5, 2019

  • 3 minutos, 55 segundos de lectura

En 2004, el informe anual de la Asociación Internacional de Energía no hizo ninguna referencia a la energía solar y pronosticó que las energías renovables solo constituirán el 6% de la capacidad para 2030. El último informe predice que la energía solar ofrecerá nuevas capacidades y que la energía eólica podría convertirse en la principal fuente de energía en Europa.

Por: Javier Barella, Director Regional de OSIsoft

El cambio, desde luego, ha sido impulsado por los avances en la tecnología: cada incremento en el porcentaje de eficiencia o de desempeño lleva a duplicar o triplicar la demanda.

La energía solar actualmente es el 25% de su costo comparado contra 2009 y se prevé que caiga otro 66% para 2040. La energía eólica marina está programada para caer un 71% (47% para la producida en la costa). Mientras tanto, el hardware y el software permiten a los proveedores de energía exprimir todo el potencial posible.

La innovación tampoco es exclusiva de las energías renovables. La energía generada por gas natural ha disminuido en un 30% en la última década ya que la eficiencia de las turbinas ha aumentado de 58% a 64%, según el CEO de Mitsubishi Hitachi Power Systems Americas, Paul Browning.

A continuación, menciono algunos de los desafíos a los cuales nos enfrentaremos como industria en el futuro.

– Habrá muchos más dispositivos conectados: IoT es quizás el primer mercado donde los pronósticos se miden regularmente en billones. Gartner predice que el IoT genera $1 billón en valor económico anualmente para 2022. Alberto Sangiovani-Vincenelli de UC Berkeley ve un mundo poblado por 7 billones de sensores para 2025. (IDC predice que para 2019 el 51% de los nodos en Internet pertenecerán a las máquinas, no a personas.)

– Almacenamiento: los datos generados por estos dispositivos crecerán exponencialmente. Un edificio «inteligente» genera en promedio 250 GB por día. Un solo medidor inteligente para el hogar puede generar 400MB al año. Si se multiplica eso por los 135 millones de metros en los Estados Unidos, se trata de 54 petabytes, o un poco más de la mitad de los datos cargados en YouTube por año. Y eso es al cargar los datos cada 15 minutos: si el medidor lee los datos cada 30 segundos para ajustar mejor los pronósticos de potencia, nos estaríamos acercando al territorio del exabyte. Los críticos dirán que se puede tirar la mayor parte, pero es imposible determinar qué datos se deben tirar. Más será mejor.

– Nube:  Una marea creciente de datos también significará, potencialmente, una marea creciente de gastos de banda ancha. Resolver los problemas en la nube o del Edge, se convertirá en uno de los principales desafíos a corto plazo. La entrega de todos sus datos a la nube, en la mayoría de los casos, no tiene ningún sentido. Del mismo modo, enviar «todo a la nube» puede aumentar la latencia o el riesgo de interrupciones de la red. Asimismo, la nube simplificará el análisis avanzado al permitir que los ingenieros activen miles de servidores rápidamente. Tendremos que descubrir nuevos flujos de procesos y arquitecturas informáticas.

– Empresas de servicios públicos: Para aprovechar al máximo la transformación digital, los grandes consumidores de energía y las empresas de servicios públicos deberán desarrollar estrategias que les permitan agregar puertas de entrada (gateways) de IoT y nuevos sensores sin romper sus antiguas redes.

El intercambio de datos se convertirá en la norma. Históricamente, a las empresas operativas no les gusta compartir sus datos. Puede crear riesgos de seguridad y, en algunos campos como el petróleo y el gas, los datos operativos pueden ser la clave para descifrar sus ventajas competitivas.

El intercambio de datos, sin embargo, tiene sus ventajas. Las compañías que venden o proveen equipos pueden monitorear sus productos por problemas de mantenimiento, siempre y cuando puedan obtener datos de vibración o rendimiento. El monitoreo continuo como este puede incluso servir como la base para cambiar a contratos “como servicio». Los algoritmos necesitan tantos datos como sea posible para calibrar sus predicciones.

Las comunidades digitales sucederán en etapas. En la primera etapa, los datos operacionales fluirán hacia otros pares internos en TI o ciencia de datos. Las compañías luego comenzarán a compartirlo con terceros confiables que brindan análisis de la nube u otros servicios. En última instancia, se verá de manera constante con los datos fluyendo hacia las aseguradoras y otros. Sólo es cuestión de tiempo.

– Propiedad de los datos: Digamos que una empresa de servicios públicos ha lanzado un programa para optimizar sus operaciones mediante el análisis de datos de medidores comerciales y residenciales, donde algunos de los datos provienen de la energía solar y el almacenamiento implementados a través de acuerdos de compra de energía. ¿Quién posee qué? La empresa de servicios públicos puede reclamar que lo posee todo porque se genera en su red. Los proveedores de energía solar pueden quejarse de que tienen una participación de propiedad de su lado y deberían recibir una compensación por dar acceso a ella. Mientras tanto, el proveedor de análisis argumentará que es de su propiedad porque convirtió los datos sin procesar en información.

Y no espere que los consumidores y las empresas se mantengan al margen del debate. También reclamarán tener una participación, y con razón. “¿Por qué deberíamos estar pagando por los datos? ¿Por qué los fabricantes no nos pagan a nosotros, los operadores, por los datos?», dijo Gavin Hall de Petronas Carigali, la compañía petrolera de Malasia en un evento reciente que sucedió en Londres. «Tal vez tenemos que cambiar el modelo de negocio».

Pin It on Pinterest