Szkolenie: "Przyjazna środowisku strategia ochrony przed powodzią"


Janusz Żelaziński
Instytut Meteorologii i Gospodarki Wodnej, Warszawa

SYMULACJA KOMPUTEROWA JAKO METODA BADANIA STRATEGII OCHRONY PRZECIWPOWODZIOWEJ

 

1. CZYM JEST OPTYMALNA STRATEGIA OCHRONY PRZECIWPOWODZIOWEJ

W dalszych rozważaniach pod pojęciem strategii rozumiemy sposób działania pozwalający na osiągnięcie stawianych celów. Strategią optymalną nazywamy zaś taką strategię, która pozwala osiągnąć cel przy minimalnych kosztach społeczno – ekonomicznych i ekologicznych.

Dla tak rozległej dziedziny działania jaką jest ochrona przeciwpowodziowa optymalna strategia musi być strategią złożoną.

Strategia złożona jest zbiorem strategii elementarnych (cząstkowych) stosowanych w odpowiednich proporcjach i w odpowiedniej kolejności, z rozłożeniem akcentów i preferencji odnośnie do wybranych strategii elementarnych. Przez strategię elementarną należy rozumieć sposób działania jednego – określonego typu. Cele ochrony przeciwpowodziowej (ochronę życia ludzi i minimalizację szkód powodziowych) możemy uzyskać stosując następujące strategie elementarne:

Można sformułować wiele strategii ochrony przeciwpowodziowej różniących się między sobą rozłożeniem akcentów i proporcji między strategiami elementarnymi. Promowanie projektów zawierających jedną receptę na osiągnięcie stawianych celów, nawet jeśli wykazano, że jest to recepta skuteczna – należy uznać za błąd. Musi być wykazane, że nie istnieją lepsze sposoby osiągnięcia stawianych celów. Cele stawiane przed programami takimi jak np. Kaskada Dolnej Wisły lub „Odra 2006” (ochrona przed powodzią, żegluga, produkcja energii, ożywienie gospodarcze i in.) można osiągnąć wieloma sposobami, być może taniej i z mniejszymi zagrożeniami dla środowiska.

W każdym przypadku poszukiwania strategii optymalnej (złożonej) należy rozważyć wszystkie dostępne strategie elementarne, a wyboru strategii optymalnej należy dokonać poprzez analizę porównawczą szeregu wariantów różniących się repertuarem i proporcjami strategii elementarnych.

Jak wykazują dotychczasowe doświadczenia dyskusja nad strategią ochrony przeciwpowodziowej była często chaotyczna, nie konstruktywna, pozostawiająca wśród uczestników niedosyt, wrażenie braku wspólnego języka i wspólnej płaszczyzny metodologicznej. Tworzenie strategii ochrony przeciwpowodziowej musi być poddane pewnej sekwencji metodologicznej. Najpierw należy zatem przedyskutować kryteria umożliwiające dokonanie rankingu poszczególnych wariantów strategii i wybrać zbiór kryteriów, według których warianty strategii będą oceniane.

Zlewnia, rzeka i jej dolina pełnią szereg funkcji gospodarczych, przyrodniczych, społecznych, kulturowych i in., a ponieważ spełnianie tych funkcji zawsze rodzi konflikty, konieczny jest kompromis. Jest on jedynym możliwym sposobem rozwiązywania problemów decyzyjnych występujących w gospodarowaniu zlewnią i jej zasobami wodnymi, a zatem ochrona przeciwpowodziowa musi uznawać konieczność kompromisu.

Ocena skuteczności proponowanej strategii oraz ocena jej oddziaływania na środowisko jest prognozą. Każda prognoza jest niepewna. Niepewne są prognozy pogody na dzień następny – przekonać się o tym może każdy porównując publikowane prognozy z faktycznym stanem pogody. Niepewność wzrasta wraz ze wzrostem liczby czynników warunkujących przyszłość, komplikacją współzależności pomiędzy tymi czynnikami, powiększaniem okresu wyprzedzenia prognozy. Projektowane dziś inwestycje najczęściej funkcjonować będą przez kilkadziesiąt następnych lat w odmiennych od dzisiejszych warunkach społeczno ekonomicznych i środowiskowych.

Praktyczne, proste zalecenia w sprawie kryteriów ograniczających negatywny wpływ niepewności są następujące:

Zasada Hipokratesa. Możliwość, nawet mało prawdopodobna, zagrożenia zdrowia i życia ludzi powinna wykluczać rozwiązania potencjalnie niebezpieczne. Jako podstawowe kryterium uwzględniające niepewność można zatem zalecić: – po pierwsze nie szkodzić.

Kryterium doboru wykonawców. Wybitny hydrolog Vit Klemeš, sformułował następującą definicję paranauki: „Paranauka wypowiada twierdzenia, których nie można zweryfikować, zaś na krytykę odpowiada demagogią”. Jest to złośliwa definicja w kontekście praktyki tworzenia planów ochrony przeciwpowodziowej i ocen oddziaływania na środowisko (ooś). Wszelkie prognozy skutków środowiskowych są praktycznie niemożliwe do zweryfikowania w momencie podejmowania decyzji, nie możemy bowiem czekać aż prognozy się sprawdzą, bądź nie. Natomiast prognozy są potrzebne decydentom i eksponowanie tej potrzeby: „wykonaliśmy najlepszą możliwą przy aktualnym stanie wiedzy prognozę i krytyka tej prognozy jest szkodliwa, bowiem prognozy potrzebuje decydent” jest klasyczną demagogią. Czy można więc uniknąć zarzutu paranaukowości prognoz tj. traktowania tej działalności na równi z astrologią, ufologią, różdżkarstwem itp.? Wydaje się, że jest to możliwe (i konieczne) jeśli konsekwentnie stosowana będzie zasada maksimum niepewność. Stawia ona wymóg ujawniania całej niepewności wynikającej ze wszystkich przyjmowanych w procesie wnioskowania hipotez i założeń, czyli ujawniania faktycznej niewiedzy. W praktyce sprowadza się to do wyboru takich wykonawców prognoz, którzy posiadając wysoką wiedzę specjalistyczną uświadamiają sobie ograniczenia tej wiedzy i są skłonni w sposób otwarty ujawnić margines niepewności opracowywanych przez siebie ekspertyz i prognoz (najlepiej, jeśli to możliwe w postaci obiektywnych miar niepewności). Inaczej mówiąc, ważnym kryterium doboru ekspertów jest akceptowanie przez nich zasady maksimum niepewności i umiejętność jej praktycznego stosowania. Należy pamiętać, że najbardziej pewni swoich twierdzeń są ludzie niedouczeni, zaś najusilniej bronią swoich twierdzeń szarlatani.

Kryterium odporności. Sprowadza się ono do żądania, aby proponowane rozwiązanie (strategia, polityka, inwestycja) pozostało przydatnym nawet wówczas, gdy nastąpi istotna zmiana warunków działania tj. gdy zmienią się zasoby wodne, potrzeby, preferencje społeczne itp. Realizacja przedsięwzięć gospodarki wodnej jest procesem długotrwałym, a zatem należy się liczyć z dużymi i nieprognozowalnymi zmianami zasobów wodnych oraz zagrożeń powodziami i suszą (np. wywołanymi wpływem globalnych zmian klimatu), jak i potrzeb wodnych (np. wywołanymi przez zmiany technologii, zmiany polityczne demograficzne i in.). Futurolodzy nie przewidzieli szeregu najważniejszych wydarzeń, które zmieniły oblicze świata w ostatnich latach. Długoterminowe prognozy rozwoju społeczno gospodarczego jak również prognozy zmian zasobów wodnych są niepewne i trzeba zatem traktować je z rezerwą. Praktyka gospodarki wodnej dostarcza przykładów przedsięwzięć spełniających i nie spełniających kryterium odporności (oczywiście nie było ono rozważane przez projektantów i jest to jedynie ilustracja dla dyskutowanego kryterium). Świadomość niepewności scenariuszy rozwoju społeczno–ekonomicznego spowodowała sformułowanie innych zleceń podobnych do kryterium odporności. Zasada zwana w anglojęzycznej literaturze non regrets w istocie rzeczy ma sens podobny do wspomnianej wyżej zasady Hipokratesa powszechnie uznawanej w medycynie. Polega ona na tym, by powstrzymać się od działań, które mogą w przyszłości okazać się szkodliwe, i których będziemy żałować. W gospodarce wodnej możemy żałować nie tylko pieniędzy wydanych na niepotrzebną inwestycję do czego sprowadza się kryterium odporności – straty mogą być znacznie poważniejsze. Inwestycje gospodarki wodnej są często szkodliwe dla środowiska przyrodniczego. Regulacja rzek niszczy lasy łęgowe w dolinach, zapory niszczą populacje ryb wędrownych i powodują erozję koryt rzecznych, melioracje niszczą tereny bagienne stanowiące ostoje różnorodności biologicznej itd. Jeżeli przedsięwzięcia te były niezbędne dla ludzi, ich skutki można akceptować jako nieuniknione koszty rozwoju. Niestety można sporządzić długa listę przedsięwzięć niepotrzebnych, które wykonano opierając się na błędnych przewidywaniach, i których jedynym efektem jest degradacja środowiska. W krajach rozwiniętych i bogatszych od Polski, coraz częściej podejmuje się niezwykle kosztowne działania renaturyzacyjne, mające na celu przywrócenie walorów przyrodniczych zniszczonych przez hydrotechnikę. Innym przykładem fatalnych skutków ignorowania ryzyka i bezzasadnego przekonania, że możemy ryzyko wyeliminować przez przedsięwzięcia techniczne, jest tak zwane błędne koło ochrony przeciwpowodziowej zdefiniowane w poprzednich wykładach. Warunkiem stosowalności kryterium odporności jest analiza wariantowa z koniecznością rozważenia wariantu „zerowego” (zaniechania). Niestety aktualne polskie przepisy nie stawiają wymogu prowadzenia analizy wariantowej w każdym przypadku tworzenia strategii, planów i programów. Jest to istotny mankament przepisów. Oczywiście kryterium odporności jest tylko jednym z wielu kryteriów zalecanych w sytuacji niepewności.

Opiniowanie. Polskie przepisy nie stawiają wymogu opiniowania planów, strategii, i ooś przez niezależnych specjalistów. Arbitralnie zakłada się, że opracowanie firmowane przez profesjonalne firmy, utytułowanych naukowców i przez licencjonowanych biegłych jest dobre. Najbogatsze praktyczne doświadczenia w ooś posiada Agencja Ochrony Środowiska USA. Procedura amerykańska traktuje opiniowanie jako jeden z kluczowych kroków procesu ooś. Opiniowanie realizowane jest z udziałem społeczeństwa i wszystkich zainteresowanych stron. Przebieg opiniowania jest następujący: Wstępna wersja raportu zostaje rozesłana wszystkim zainteresowanym stronom oraz udostępniona społeczeństwu. Organizacje ekologiczne oraz niezależni (od inwestora oraz od wykonawców ooś) wybitni eksperci, proszeni są o opinię na piśmie. Wszystkie otrzymane wypowiedzi są starannie analizowane i w stosunku do każdej zespół wykonujący ooś zajmuje stanowisko, korygując dotychczasowe ustalenia, bądź polemizując z wykorzystaniem bezdyskusyjnych faktów, lub racjonalnych argumentów. Powstaje w ten sposób kolejna wersja raportu uwzględniająca uzyskane opinie. Wersja ta ponownie udostępniana jest wszystkim zaangażowanym w dyskusję, by mogli ustosunkować się do sposobu w jaki ich opinie zostały uwzględnione. Tego typu „pętli” może być kilka, jeśli ujawniane są nowe zagrożenia i zastrzeżenia. Końcowa wersja raportu prezentuje zarówno opinię zespołu wykonującego ooś jak i stanowiska opiniodawców rozbieżne z opinią zespołu, z przytoczeniem argumentacji obu stron. Jeżeli nie uzyskano zgody pomiędzy członkami zespołu wykonującego ooś, zostają przytoczone opinie i argumenty obydwu stron. Decydent otrzymując zaopiniowany w ten sposób raport ooś ma pełną świadomość skutków podjętej decyzji łącznie z niepewnością oceny tych skutków, której wyrazem są ewentualne rozbieżności. Opiniowanie przeprowadzone w opisany wyżej sposób ma kapitalne znaczenie dla ograniczenia negatywnych skutków niepewności, z dwóch nastepujących względów:

  1. Redukuje niepewność ocen (prognoz). Organizacje ekologiczne, społeczności lokalne, hobbyści (np. wędkarze, turyści, obserwatorzy ptaków, kolekcjonerzy i in.) oraz oczywiście niezależni (od zespołu projektantów i inwestora) eksperci posiadają zazwyczaj znacznie większy zasób szczegółowej wiedzy niż projektanci. W ramach opiniowania wiedza ta zostaje ujawniona, poddana krytycznej analizie i usystematyzowana zmniejszając istotnie niepewność.

  2. Ujawnia stopień niepewności. Jeżeli pojawiają się rozbieżne opinie w tych samych sprawach i jeżeli autorzy tych opinii prezentują racjonalne argumenty uzasadniające ich poglądy, to oczywiście decydent (upoważniony urzędnik) na ogół nie może rozstrzygnąć kto ma rację. Natomiast do świadomości decydenta dociera fakt, iż skutki mogą być bardzo różne, co pozwala podjąć decyzję bardziej wyważoną niż bezzasadna wiara w jeden scenariusz wydarzeń.

Opisana procedura opiniowania nazywana jest planowaniem otwartym i stosowanie jej stanowi praktyczną realizację udziału społecznego w procesie podejmowania decyzji. Uspołecznienie procesów decyzyjnych jest jednym z ważnych wymogów Unii Europejskiej.

Monitoring. Jeżeli podejmujemy decyzje mając świadomość niepewności i związanej z nią możliwości wystąpienia sytuacji i efektów szkodliwych, a często niebezpiecznych, rozsądne jest przewidywanie możliwości, a właściwie konieczności korygowania decyzji oraz podejmowania innych niezbędnych działań. Wykrywaniu niekorzystnych efektów służą systemy monitoringowe. Dla większości przedsięwzięć zagrażających środowisku, np. inwestycji gospodarki wodnej, zakładanie i eksploatowanie takich systemów stanowi obowiązek inwestora, wynikający z przepisów prawa. Częstotliwość badań monitoringowych i podejmowania stosownych działań zależy od rodzaju problemu, a ściślej – skali czasowej w jakiej zachodzą badane procesy. Badanie erozji dna poniżej zapory może być wykonywane raz do roku, zaś obserwacje dopływu i napełnienia zbiornika retencyjnego w okresie powodzi służące do określenia sterowań odpływem, powinny być prowadzone raz na godzinę. Opisany mechanizm podejmowania decyzji zwany jest w automatyce sterowaniem z dyskretnym sprzężeniem zwrotnym, lub sterowaniem repetycyjnym i powinien on być rutynowo stosowany w gospodarce wodnej. Z powyższych rozważań wynikają następujące zalecenia:

 

2. POTRZEBA SYMULACJI KOMPUTEROWEJ

Procedura tworzenia strategicznych planów ochrony przeciwpowodziowej wymaga wielokrotnie powtarzanych badań symulacyjnych pozwalających ocenić skutki rozważanych strategii elementarnych i złożonych. Praktycznie brak alternatywy dla symulacji komputerowej – nie można bowiem badać tych strategii empirycznie. W przyszłości przewiduje się w Polsce wykorzystanie do tych celów zaplecza informatycznego realizowanego obecnie programu ochrony przeciwpowodziowej finansowanego z pożyczki Banku Światowego. Obejmuje ono:

W ramach ćwiczeń została przeprowadzona demonstracja możliwości wykorzystania do badania elementarnych strategii ekologicznych dwóch modeli komputerowych:

Obydwa wymienione modele komputerowe zostały opracowane przez zespół pracowników Zakładu Prognoz Hydrologicznych IMGW w Warszawie, biorący udział w niniejszym seminarium. Przed przystąpieniem do ćwiczeń zostały krótko omówione wykorzystane modele.

 

3. MODEL HYDROGRAMU ODPŁYWU DESZCZOWEGO ZE ZLEWNI

3.1. Uwagi ogólne

W ciągu ostatnich kilkudziesięciu lat opracowano w kraju i na świecie wielką liczbę symulacyjnych modeli komputerowych, pozwalających przetwarzać hietogramy opadu i/lub zasilania wynikającego z tajania śniegu w hydrogramy odpływu ze zlewni. Wybitny hydrolog irlandzki James Dooge już wiele lat temu określił tę sytuację jako „dżunglę modeli”, w której łatwo stracić orientację. Przeprowadzane pod patronatem Światowej Organizacji Meteorologicznej obiektywne porównania różnych modeli prowadzą do wniosku o braku jednoznacznych podstaw do preferowania konkretnych rozwiązań (istnieje duża grupa modeli praktycznie nierozróżnialnych pod względem zgodności wyników symulacji z obserwacjami). Nie oznacza to braku jakichkolwiek kryteriów pozwalających wybrać model dla konkretnych zastosowań. naszym przypadku, gdy celem badań jest określenie wpływu działań w zlewni na hydrogram odpływu ze zlewni, bezużyteczna jest wielka grupa modeli typu „czarnej skrzynki”, w których związki pomiędzy wejściem (opadem) i wyjściem (odpływem) opisywane są poprzez operatory pozbawione sensu fizycznego takie jak np. model ARMA, szereg do Volterry, model sieci neuronowej, filtr Kalmana i wiele innych. Opracowano model klasy opad – odpływ, w którym występuje szereg parametrów istotnych z punktu widzenia formowania się wezbrań, a jednocześnie posiadających jasny sens fizyczny. Zmieniając te parametry możemy uzyskać realistyczne oceny wpływu zmian na parametry fali powodziowej. Trzeba dodać, iż zastosowany model zawiera również parametry liczbowe nie posiadające sensu fizycznego i jedynym sposobem określenia tych ostatnich jest proces kalibracji wymagający posiadania zbiorów wiarygodnych obserwacji danych wejścia i wyjścia. Zastosowanie takiego rozwiązania jest konieczne – liczne próby krajowe i zagraniczne opracowania modeli zawierających wyłącznie parametry fizyczne, jak dotychczas nie doprowadziły do użytecznych wyników.

3.2. Opis modelu

Decydujące znaczenie dla trafnego modelowania transformacji opadu w odpływ ma trafne modelowanie transformacji opadu całkowitego w opad efektywny (opad netto), zasilający sieć rzeczną. Modelowanie transformacji hietogramu opadu efektywnego w hydrogram odpływu ze zlewni jest problemem o mniejszym od poprzedniego znaczeniu. Współczesna hydrologia oferuje liczne proste i efektywne algorytmy transformacji opadu efektywnego w hydrogram odpływu, natomiast brak jest dobrych teorii i algorytmów obliczania rzędnych hietogramu opadu efektywnego.

Przypuszczalnie istnieją trzy niezależne przyczyny dotychczasowych niepowodzeń:

  1. Nieadekwatna modelowanym procesom skala czasowo–przestrzenna wymuszona przez dostępne dane pomiarowe i możliwości powtarzania. Procesy decydujące o tym jaka część opadu całkowitego przekształci się w odpływ (powodujący wezbrania i powodzie) rozgrywają się w skali przestrzennej rzędu metrów i w skali czasowej rzędu minut. Na standardowej sieci obserwacyjnej operujemy opadami uśrednionymi na obszarze rzędu setek czy tysięcy kilometrów kwadratowych oraz sumowanymi w interwałach rzędu trzech i więcej godzin. Decydujący czynnik jakim jest zróżnicowanie przestrzenne i czasowe opadów oraz zróżnicowanie gleb, nie może być w tej sytuacji uwzględniony.
  2. Dane pomiarowe (opady i przepływy) obarczone są dużymi błędami pomiarowymi. Przy estymacji parametrów modeli dopasowujemy się do chwilowych błędów danych a nie do właściwości zlewni.
  3. Badane modele transformacji opadu są nieadekwatne do rzeczywistości.

Zapewne wymienione przyczyny działają jednocześnie. Hydrolog identyfikujący model nie ma wpływu na strukturę i dokładność danych. Pozostaje więc praktycznie tylko możliwość podjęcia kolejnych prób znalezienia adekwatnego modelu, czyli eliminacja przyczyny trzeciej. Poniżej przedstawiono ideę nowego modelu opad–odpływ dla zlewni traktowanej jako system o parametrach skupionych, wdrażanego w dorzeczu Odry. Model ten został przed kilkunastu laty opracowany dla kilku zlewni w dorzeczu Odry przez autora niniejszego referatu.

Punktem wyjścia dla zastosowanego podejścia było stwierdzenie, że wszystkie dotychczas badane modele były oparte na hortonowskiej koncepcji formowania się spływu powierzchniowego, która zakłada, że opad efektywny OE(t), utożsamiany z zasilaniem powierzchniowym, powstaje wówczas, gdy intensywność opadu całkowitego OC(t) przekroczy maksymalną możliwość intensywności infiltracji INF(t):

wzór

Przebieg krzywej maksymalnej zdolności infiltracji INF(t), w sytuacji gdy:

OC(t) większe lub równe INF(t), dla każdego t należącego < 0, T >, zależy tylko od początkowej wilgotności gleby w strefie aeracji SGLA(0).

Koncepcja hortonowska prowadzi do wniosku, że opad efektywny zależy od dwóch czynników zmiennych w czasie:

Przeprowadzając krytyczną analizę koncepcji Hortona w kontekście opisanych na wstępie niepowodzeń, sformułowano następujące ważne zastrzeżenia:

  1. Badania infiltracji w warunkach laboratoryjnych i opracowane w wyniku tych badań modele matematyczne prowadzą do wniosku, że zmiany intensywności infiltracji rzędu kilkuset procent wartości początkowej, zachodzą w okresie od kilku do kilkunastu minut. Ponadto gleby wykazują ogromną zmienność właściwości infiltracyjnych, a w zlewniach górskich nieomal każdy metr kwadratowy posiada inne pokrycie i inną glebę. Prowadzi to do wniosku, że nawet w przypadku adekwatności modelu hortonowskiego nie może on być użyteczny przy rozważanej skali przestrzennej (rzędu setek czy tysięcy kilometrów kwadratowych) i czasowej (rzędu kilku godzin).

  2. Istnieją wyniki badań wykazujące nieadekwatność modelu hortonowskiego w warunkach polskich:
    • W badaniach wsiąkania powierzchniowego, przeprowadzonych w zlewni Skawy, stwierdzono średnią intensywność infiltracji od kilkunastu do kilku tysięcy [mm/h], w zależności od rodzaju gleby i szaty roślinnej. Takie wielkości praktycznie wykluczają możliwość wystąpienia opadu efektywnego w rozumieniu hortonowskim.
    • W pobliżu Stacji Badań Niwalnych PAN na Hali Gąsienicowej w Tatrach zainstalowano tzw. poletka spływowe. W ciągu kilkunastu lat obserwacji, nie zanotowano tam spływu powierzchniowego, mimo iż w tym okresie wystąpił rekordowy opad 300 mm/dobę, w czerwcu 1973 r.

Wyniki prac nad adaptacją teorii GIUH (geomorfologicznego chwilowego hydrogramu jednostkowego) dla potrzeb modeli prognostycznych (Żelaziński, 1986) wykazały, że przeważająca masa wód opadowych tworzących wezbrania i fale powodziowe, dociera do sieci rzecznej (nie do przekroju zamykającego zlewnię!) z opóźnieniem rzędu kilkunastu do kilkudziesięciu godzin od momentu wystąpienia opadu. Nie jest to z pewnością spływ powierzchniowy w rozumieniu hortonowskim, gdyż ten ostatni (zgodnie z rzeczywistością i założeniami teorii GIUH) dociera do sieci rzecznej nieomal natychmiast. To ostatnie spostrzeżenie wyraźnie wskazuje na istotną rolę wód glebowych (odpływu śródpokrywowego) w formowaniu się odpływu powodziowego.

Istnieje od lat „konkurencyjna” w stosunku do hortonowskiej teoria formowania się wezbrań. W literaturze anglojęzycznej znana jest jako „contributing area concept”. Odpowiednim określeniem w języku polskim wydaje się „koncepcja obszarów czynnych”. Zgodnie z tą koncepcją, źródłem szybkich form odpływu są obszary zlewni (obszary czynne) położone w pobliżu cieków. Obszary takie charakteryzują się pełnym nasyceniem gleby wilgocią a opad, który dociera do obszaru czynnego, dociera natychmiast i bez strat do sieci rzecznej. Stosunek powierzchni obszaru czynnego AC do powierzchni zlewni A określa współczynnik zasilania powierzchniowego ZPO:

wzór   (3.2)

wzór   (3.3)

Obszary czynne tworzą się w miejscu, gdzie istnieją wychodnie warstw wodonośnych lub gdzie zwierciadło wód gruntowych przecina powierzchnię terenu. Określenie „wody gruntowe” dotyczy nie tylko głębszych horyzontów, ciągle zasilających sieć rzeczną, ZGR(t) (tzw. zasilanie odpływu podstawowego) lecz przede wszystkim wód zawartych w spękanej, powierzchniowej warstwie gleby, pojawiających się w związku z intensywnymi opadami. Wody te tworzą zasadniczą część zasilania sieci rzecznej w okresach wezbrań. Zasilanie to zwane jest zasilaniem śródpokrywowym lub glebowym, ZSP(t). Schematycznie koncepcję obszarów czynnych przedstawiono na rys. 1.

rysunek 1

Oznaczenia:
OC(t)- opad całkowity
OC(t) * ZPO- opad na obszar czynny
ZPO- współczynnik odpływu powierzchniowego, równy stosunkowi powierzchni obszaru czynnego do powierzchni całej zlewni
OC(t) * (1 - ZPO)- opad na pozostałą część zlewni
ZPO(t) = OC(t) * ZPO- zasilanie powierzchniowe
ZSP(t)- zasilanie śródpokrywowe
ZGR(t)- zasilanie gruntowe
ZWG (t)- łączne zasilanie wód glebowych strefy saturacji i wód gruntowych

Rys. 1. Schematyczny przekrój doliny rzecznej ilustrujący koncepcję obszarów czynnych

Na podstawie rysunku można wysnuć kilka ważnych wniosków:

Schemat blokowy modelu przedstawiony został na rys. 2.

rysunek 2

Dane wejścia: jednogodzinne sumy średniego dla zlewni opadu (OC) i parowania potencjalnego (EP) [mm/h]

Parametry modelu:
1. SIMAX- maksymalna pojemność zbiornika intercepcji [mm]
2. KGLA- stała czasowa zbiornika glebowego strefy aeracji [h]
3. SGLMAX- maksymalna pojemność zbiornika strefy aeracji [mm]
4. KGLS- stała czasowa zbiornika glebowego strefy saturacji [h]
5. KGR- stała czasowa zbiornika gruntowego [h]
6. E, F, G, H- parametry funkcji wiążącej współczynnik odpływu powierzchniowego ZPO z sumą zasilania glebowego i gruntowego (z1)
7. A, B, C, D- paramerty funkcji wiążącej współczynnik odpływu gruntowego GR z zasilaniem gruntowym
8. N, K- paramert modelu Nash'a (wg teorii GCHJ)
Zmienne stanu:
1. INT- napełnienie zbiornika intercepcji [mm]
2. SGLA- napełnienie zbiornika strefy aeracji [mm]
3. SGLS- napełnienie zbiornika strefy saturacji [mm]
4. SGR- napełnienie zbiornika gruntowego [mm]

Rys. 2. Schemat modelu wykorzystującego koncepcję obszarów czynnych

Opisany model zawiera parametry konceptualne oraz parametry mające sens fizyczny. Pozwala obliczyć zasilanie sieci rzecznej jako sumę trzech form zasilania: powierzchniowej (ZPO), śródpokrywowej (ZSP) i gruntowej (ZGR). Dodatkowymi parametrami modelu są parametry opisujące transformację opadu w odpływ (parametry N i K kaskady Nash’a).

Przy modelowaniu transformacji zasilania w sieci rzecznej wykorzystano zmodyfikowany model geomorfologicznego chwilowego hydrogramu jednostkowego (GIUH). Modyfikacja polega na wykorzystaniu oryginalnej teorii GIUH (Rodriguez — Iturbe i in., 1979) do estymacji parametrów modelu Nash’a (Żelaziński, 1986).

Proces odpływu ze zlewni opisano kaskadą zbiorników liniowych Nash’a. W modelu tym hydrogram jednostkowy aproksymowany jest funkcją gęstości rozkładu :

wzór    (3.17)

gdzie:
q(t) – funkcja gęstości rozkładu opisująca zmianę rzędnych chwilowego hydrogramu jednostkowego CHJ w funkcji czasu t,
a, – parametry rozkładu.

Model CHJ jest modelem czysto konceptualnym a więc jego parametry określane są na drodze optymalizacji.

Możliwa jest jednak interpretacja parametrów takiego modelu przy wykorzystaniu charakterystyk fizyczno–geograficznych zlewni, które mogą być oszacowane na podstawie materiałów kartograficznych oraz hydraulicznych charakterystyk koryta rzecznego. Możliwości takie stwarza teoria geomorfologicznego chwilowego hydrogramu jednostkowego (GCHJ). Podstawą GCHJ jest analiza zlewni i klasyfikacja cieków Hortona – Strahlera (1964).

Autorzy GCHJ (Rodriguez – Iturbe i in., 1979) wprowadzili bezwymiarowy wskaźnik podobieństwa zlewni IR:

IR = qp × tp    (3.18)

gdzie: qp – maksymalna rzędna GCHJ,
tp– czas do kulminacji: Wykorzystując powyższe wzory możemy wyrazić IR poprzez parametry rozkładu:

wzór                    (3.19)

ponieważ

     (3.20)

a więc wzory (3.19) i (3.20) służą do estymacji parametru na podstawie geomorfologicznych parametrów zlewni. Do wyznaczenia parametru służą zależności

    (3.21)

gdzie:
V – średnia prędkość przepływu w cieku,
R – współczynnik ilości cieków,
RA – współczynnik powierzchni cieków,
RL – współczynnik długości cieków,
L – zmienna skali równa całkowitej długości cieku głównego.

    (3.22)

gdzie:
L – długość układu (zlewni) [m].

Pomiędzy modelem CHJ a kaskadą Nash’a istnieją następujące relacje:

    (3.23)

gdzie:
N – liczba jednakowych zbiorników retencyjnych w modelu Nash’a

oraz

     (3.24)

skąd

gdzie:
K – stała czasowa zbiornika w kaskadzie.

 

3.3. Zakres możliwych badań symulacyjnych

Model opisany w p. 3.2. może być wykorzystany do badania skutków następujących zdarzeń naturalnych bądź działań podejmowanych w ramach rozważania strategii ochrony przeciwpowodziowej:

  1. wystąpienia dowolnego hietogramu opadów średnich dla zlewni przy dowolnie zadanych warunkach początkowych;

  2. zmian hydrogramu odpływu wywołanych przyśpieszeniem/opóźnieniem czasu przepływu fali wskutek regulacji/renaturyzacji koryt rzecznych (uzyskujemy to poprzez zmiany parametru Vmax);

  3. zmian hydrogramu odpływu wywołanych zwiększeniem/zmniejszeniem maksymalnej możliwej intrecepcji w wyniku np. zalesienia/wylesienia zlewni (uzyskujemy to poprzez zmiany parametru SIMAX);

  4. zmian hydrogramu odpływu wywołanych zwiększeniem/zmniejszeniem maksymalnej pojemności strefy aeracji w wyniku np. zmian agrotechniki lub zalesienia/wylesienia zlewni (uzyskujemy to poprzez zmiany parametru SGLMAX);

  5. zmian hydrogramu odpływu wywołanych zwiększeniem/zmniejszeniem intensywności infiltracji w wyniku np. zmian agrotechniki lub zalesienia/wylesienia zlewni (uzyskujemy to poprzez zmiany parametru KGLA);

  6. zmian hydrogramu odpływu wywołanych zwiększeniem/zmniejszeniem czasu zatrzymywania wody w strefie saturacji w wyniku np. melioracji zlewni lub renaturyzacji obszarów podmokłych (uzyskujemy to poprzez zmiany parametru KGLS).

 

4. MODEL TRANSFORMACJI PRZEPŁYWÓW W SIECI RZECZNEJ

4.1. Opis modelu

Powszechnie uznanym sposobem określania zasięgu zalewu jest wykorzystanie komputerowego modelu nieustalonego przepływu w korycie otwartym. Najczęściej wykorzystywany jest model oparty o układ jednowymiarowych równań Saint – Venanta. Model ten wykorzystano w niniejszym opracowaniu. Równania Saint – Venanta są nieliniowym układem równań różniczkowych cząstkowych pierwszego rzędu typu hiperbolicznego:

     (4.1)

     (4.2)

Równanie (4.1) opisuje prawo zachowania masy, a równanie (4.2) prawo zachowania pędu.
Przyjęto następujące oznaczenia:
Q – natężenie przepływu [m3/s],
t – czas [s],
z – rzędna zwierciadła wody [m],
B – szerokość zwierciadła wody [m],
q – dopływ boczny rozłożony na jednostkę długości [m2/s],
A – powierzchnia przekroju czynnego [m2],
K – współczynnik korygujący dla niejednostajnego rozkładu prędkości w przekroju,
g – przyspieszenie ziemskie [m/s2],
K – przepustowość koryta przy jednostkowym spadku [m3/s],

Zmiennymi niezależnymi w równaniach (4.1), (4.2) są t i x, a zmiennymi zależnymi z i Q. Do numerycznego rozwiązanie układu równań (4.1), (4.2) wykorzystano metodę niejawną opartą na schemacie Preissmanna. Wykorzystano naturalną, nie schematyzowaną geometrię koryta. Przyjęto, że geometria i hydraulika koryta opisana jest przez m przekrojów poprzecznych, w których stablicowane są zależności B(z), A(z), K(z). Funkcje B(z) i A(z) konstruuje się wykorzystując zazwyczaj zaniwelowane przekroje poprzeczne koryta i doliny rzeki. Występujące we wzorze na przepustowość K współczynniki szorstkości Manninga, które mogą być zróżnicowane w przekroju poprzecznym są jedynymi parametrami modelu wymagającymi kalibracji. Równania Saint Venanta nie posiadają rozwiązania analitycznego. Rozwiązywano je numerycznie.

Dyskretyzację zmiennych zależnych oraz ich pochodnych opisują następujące równania:

     (4.3)

     (4.4)

     (4.5)

gdzie:
 x– długość kroku przestrzennego [m],
 t – długość kroku czasowego [s],
f – wartość funkcji f w j–tym przekroju w chwili n  t,
– współczynnik wagowy, 0 < < 1.

Stosując wzory (4.3), (4.4), (4.5) do równań (4.1), (4.2), dla każdego odcinka między przekrojami, otrzymujemy układ 2m – 2 równań z 4m – niewiadomymi.

Przyjmując, że znamy rozwiązanie w chwili t = n  t, liczba niewiadomych wynosi 2m. Aby liczba równań była równa liczbie niewiadomych dodajemy dwa dodatkowe równania stanowiące lewy i prawy warunek brzegowy. Ostatecznie otrzymujemy układ 2m równań z 2m niewiadomymi, który rozwiązywany jest metodą iteracyjną Raphsona – Newtona.

Aby otrzymać początkowe wartości niewiadomych w chwili t = 0 rozwiązywany jest układ równań (4.1), (4.2) dla przepływu ustalonego dla rzeki głównej (i ewentualnie dopływu). Wpływ warunku początkowego na otrzymane rozwiązanie szybko zanika.

Wynikami symulacji są hydrogramy: rzędnych zwierciadła wody, natężenia przepływów i prędkości przepływów w kolejnych przekrojach poprzecznych koryta. Wynikiem szczególnie interesującym z punktu widzenia ochrony przeciwpowodziowej są maksymalne rzędne zwierciadła wody w kolejnych przekrojach obliczeniowych. W tym miejscu warto podkreślić, że w ruchu nieustalonym maksymalna rzędna zwierciadła wody nie występuje w momencie wystąpienia maksymalnego przepływu, lecz nieco później. Aby efekt ten właściwie uwzględnić obliczenia symulacyjne należy wykonywać wykorzystując cały hydrogram fali obliczeniowej, a nie tylko przepływ maksymalny fali, jak to zazwyczaj czyni się w uproszczonych obliczeniach inżynierskich.

Opisany model rozszerzono wprowadzając możliwość symulowania procesu zalewania polderu. Polder potraktowano jako zbiornik, o ograniczonej przez topografię terenu powierzchni i objętości napełniany (i opróżniany) przez „przelew boczny” usytuowany w dowolnym profilu rzeki. Może to być przelew prostokątny o określonej rzędnej korony i szerokości zaprojektowany przez hydrotechników. Może to być również wyrwa w obwałowaniu powstała w wyniku awarii – konieczne jest wówczas określenie szerokości wyrwy i rzędnej jej dna.

 

4.2. Zakres możliwych badań symulacyjnych

Model opisany w p. 4.1. może być wykorzystany do badania skutków następujących zdarzeń naturalnych bądź działań podejmowanych w ramach rozważania strategii ochrony przeciwpowodziowej:

  1. Zmiany geometrii koryta i doliny poprzez:
    • skrócenie (wydłużenie) biegu rzeki,
    • rozszerzenie (zwężenie) koryta i doliny wyniku regulacji koryta i zmiany rozstawu obwałowań,
    • zmiany spadku koryta wywołanej przyczynami naturalnymi lub sztucznymi.

  2. Zmiany oporów ruchu poprzez:
    • regulację koryta,
    • wycinkę drzew i krzewów w terenie zalewowym,
    • plantowanie terenu zalewowego.

  3. Powstanie naturalnych, bądź sztucznych polderów.

  4. Powstanie zatoru lodowego.

  5. Zjawiska zmiennej cofki wywołanego wezbraniem recypienta.

 

5. UWAGI KOŃCOWE

Modele opisane w pp. 3 i 4 wymagają identyfikacji występujących w nich parametrów, danych wejścia oraz określenia warunków początkowych. W celu demonstracji podczas warsztatów wykorzystano zasadniczo parametry uzyskane w wyniku dopasowania tych modeli do zlewni rzeki Soły. W modelu opad – odpływ są to parametry zlewni Soły zamkniętej profilem Żywiec. W modelu transformacji przepływów dokonano daleko idącego przekształcenia parametrów koryta Soły pomiędzy Czańcem i Oświęcimiem. W przypadku modelu opad – odpływ danymi wejścia są hietogramy opadu średniego w modelowanej zlewni. Do celów szkoleniowych przygotowano trzy hietogramy opadów zaobserwowanych w zlewni Soły wybrane w ten sposób, by obejmowały wezbranie o charakterze katastrofalnym, wezbranie o powtarzalności rzędu 25 lat i wezbranie przeciętne. Jako warunki początkowe zaproponowano przyjmowanie przeciętnego stanu zlewni tj. napełnienia sieci rzecznej oraz stref aeracji, saturacji i wód podziemnych.

Wspomniana wyżej modyfikacja modelu koryta Soły polegała na wprowadzeniu dopływu o istotnym znaczeniu dla formowania się powodzi oraz na schematyzacji przekrojów poprzecznych doliny i koryta, celem ułatwienia wprowadzania zmian geometrii koryta i polderów (zamiast naturalnych przekrojów wprowadzono schemat obwałowanego koryta dwudzielnego opisanego dwoma trapezami, lecz zbliżonego do koryta naturalnego). Jako dane wejścia wykorzystano hydrogramy trzech opisanych wyżej wezbrań, uzyskane w wyniku przekształcenia hietogramów opadów w hydrogramy odpływu poprzez model opad – odpływ. Hydrogram dopływu uzyskano poprzez prostą zmianę hydrogramu wejścia. Jako warunki początkowe przyjmowano stan napełnienia koryta wynikający z warunków ruchu ustalonego i przepływu poprzedzającego wezbranie. Na tak przygotowanym materiale można zbadać znaczną liczbę różnych strategii elementarnych ochrony przeciwpowodziowej.

 

Literatura:

  1. Rodriquez – Iturbe I., Valdes J. B. 1979. The geomorphologic structure of hydrologic response. Wat. Resour Res. 15 (6), 1409 – 1420.

  2. Żelaziński J. 1986. Application of the geomorphological instantaneous unit hydrograph theory to development of forecastig models in Poland. Hydrogical sciences Journal, 31, 2, 6/1986.