Aktualności
Badania
09 Maja
Źródło: www.pixabay.com
Opublikowano: 2023-05-09

Przewidywanie generowanej przez turbiny wiatrowe mocy za pomocą metod uczenia maszynowego?

Rosnący udział w miksie energetycznym OZE, takich jak turbiny wiatrowe, oraz ich zależność od warunków pogodowych sprawiają, że konieczne staje się precyzyjne przewidywanie generowanej przez nie mocy w znacznym horyzoncie czasowym. Wyniki badań nad wykorzystaniem w tym celu metod uczenia maszynowego przedstawili naukowcy Narodowego Centrum Badań Jądrowych i Politechniki Śląskiej.

Rola energetyki opartej na odnawialnych źródłach energii wzrasta z roku na rok. W Polsce zainstalowana moc lądowych farm wiatrowych przekracza 7,5 GW. Jednak ze względu na zmienny poziom mocy generowanej przez farmy wiatrowe i ich silną zależność od warunków pogodowych, utrzymanie stabilnego systemu energetycznego wymaga nie tylko bardziej konwencjonalnych źródeł energii działających w podstawie, ale również narzędzi pozwalających przewidywać działanie źródeł odnawialnych. Im bardziej precyzyjne będą wyniki przewidywań, tym lepiej można dostosować pracę pozostałych źródeł, szczególnie ze względu na czas potrzebny na zmianę generowanej przez nie mocy.

Z tego powodu, opracowywane są narzędzia mające, na podstawie prognoz pogody oraz danych historycznych o mocy generowanej w danym przedziale czasu, skutecznie przewidywać moc, jaką wytworzą farmy wiatrowe, zarówno w krótkim okresie, liczonym w dziesiątkach minut czy godzinach, jak i dłuższym, rzędu dziesiątek godzin czy wręcz dni. System taki musi być jednocześnie skalowalny, aby objąć farmy działające na terenie nawet całego kraju. Przy konstruowaniu tego typu narzędzi z pomocą przychodzą rozwijane intensywnie w ostatnich latach metody uczenia maszynowego, takie jak sztuczne sieci neuronowe, algorytmy losowych lasów czy algorytm k-najbliższych sąsiadów. Badania mające na celu opracowanie tego typu systemu opublikowali na łamach czasopisma Energies naukowcy Interdyscyplinarnego Zakładu Analiz Energetycznych Narodowego Centrum Badań Jądrowych i Politechniki Śląskiej.

System, nad którym pracowali, miał łączyć precyzję przewidywania z szybkością działania, co jest szczególnie istotne, jeżeli miałby on działać w skali całego kraju, przy założeniu prognozowania poziomu produkowanej mocy w 15-minutowych odstępach czasu. Dane wejściowe modelu pochodziły zarówno ze znajdującego się w farmach wiatrowych systemu SCADA (Supervisory Control and Data Acquisiton), jak i z dostępnych komercyjnych prognoz warunków pogodowych otrzymywanych co 6 godzin. Na podstawie stworzonych zestawów danych naukowcy wykorzystali standardowe metody uczenia maszynowego (sztuczne sieci neuronowe, lasy losowe, drzewa wzmacniane gradientowo oraz algorytm k-najbliższych sąsiadów) do określenia trafności przewidywania i czasu wykonywania obliczeń.

Czas obliczeń był w analizach szczególnie istotny. Musi on być krótki, gdyż w systemie zakładane jest cotygodniowe ponowne trenowanie modelu tak, aby wziąć pod uwagę ewentualne czasowe włączenia czy wyłączenia turbin, co może mieć duży wpływ na trafność przewidywań. Jednocześnie w przypadku wielkoskalowego wykorzystania systemu, istnieje potrzeba optymalizacji pod kątem złożoności obliczeniowej, co jest szczególnie dużym wyzwaniem w przypadku korzystania ze sztucznych sieci neuronowych – wyjaśnia dr hab. inż. Marcin Blachnik, pierwszy autor artykułu.

Podczas analiz naukowcy prześledzili wpływ na czas i precyzję przewidywania, zarówno typu danych wejściowych (informacje wyłącznie z prognoz pogody, informacje z systemu SCADA bądź połączenie obu), jak i poszczególnych danych pogodowych, począwszy jedynie od prędkości i kierunku wiatru w miejscu elektrowni, aż do uwzględniania całego okolicznego pola wiatru, jego gradientów 2 godziny przed i po obecnym punkcie w czasie, a także interpolacji brakujących informacji z prognoz pogody. Poza badaniem wydajności poszczególnych modeli rozważano również warianty złożone z ich kombinacji, ze względu na różne właściwości i osiąganą precyzję w różnych horyzontach czasowych. Co więcej, badacze wyznaczyli także krzywe uczenia, aby zoptymalizować wielkość zestawu danych koniecznego do treningu każdego modelu, celem minimalizacji złożoności obliczeniowej i niepewności przewidywań. Z przeprowadzonych badań wynika, że optymalnym rozwiązaniem jest model losowych lasów.

Precyzja przewidywań i czas konieczny na wykonanie prognozy przez model dorównuje sztucznym sieciom neuronowym, jednak czas wytrenowania pozostaje nawet kilkudziesięciokrotnie krótszy – raportuje Marcin Blachnik. – Co więcej, w modelu wykorzystującym lasy losowe można stosunkowo prosto zaimplementować równoległe wykonywanie obliczeń, co pozwala dalej zwiększyć jego efektywność. Dodatkowo, ze względu na specyfikę modelu i dokładną znajomość jego funkcjonowania, unikamy problemu tzw. czarnej skrzynki, co ma miejsce w przypadku sztucznych sieci neuronowych.

Analizy pokazały również, że największą poprawę jakości przewidywania spowodowało uwzględnienie w modelach gradientu prędkości i kierunku wiatru. Jednocześnie warunki pogodowe, takie jak wilgotność powietrza, temperatura czy ciśnienie nie miały dużego wpływu na wyniki. Może to wynikać z faktu, że prognozy pogody podają warunki na poziomie 2 m powyżej gruntu, a więc są one jedynie częściowo powiązane z warunkami panującymi na wysokości 90 czy 110 m, gdzie pracują turbiny wiatrowe. Okazuje się również, że interpolacja prognoz wejściowych celem uzyskania 15-minutowej rozdzielczości czasowej nie poprawia istotnie jakości wyników, a pochłania znaczące zasoby obliczeniowe.

Badania dowiodły także zalet wykorzystania kombinacji różnych modeli. W krótkim horyzoncie czasowym, rzędu 2–3 godzin, przewagę uzyskują modele bazujące na autoregresji. W dłuższej perspektywie jednak, większą precyzję uzyskuje się na podstawie danych pochodzących z prognoz pogody. Połączenie tych metod skutkuje więc najlepszą jakością finalnych przewidywań.

źródło: NCBJ

 

Dyskusja (0 komentarzy)