Modell-iskola
Persze:
Külön, az új GFS-re vonatkozó verifikálás oldala (T1534):
Link
"Sima" verifikációs oldal:
Link
Érdekes, régebben több PARA változat is volt ebben a verifikációban. A pár hónapja két változatra emlékszem a PRHW14 és a PRX, amelyek párhuzamos futásából a PRHW14 jobban szerepelt . A különbség azt hiszem az volt, hogy a PRHW14-et az NCEP EMC-nél (Environmental Modelling Center), a PRX pedig már az NCEP NCO-nél futott (ez volt a PARA).
Egyébként ezt a változatot tesztelték leghosszabb ideig (32 hónap, 2011-2014-ig Link )
Külön, az új GFS-re vonatkozó verifikálás oldala (T1534):
Link
"Sima" verifikációs oldal:
Link
Érdekes, régebben több PARA változat is volt ebben a verifikációban. A pár hónapja két változatra emlékszem a PRHW14 és a PRX, amelyek párhuzamos futásából a PRHW14 jobban szerepelt . A különbség azt hiszem az volt, hogy a PRHW14-et az NCEP EMC-nél (Environmental Modelling Center), a PRX pedig már az NCEP NCO-nél futott (ez volt a PARA).
Egyébként ezt a változatot tesztelték leghosszabb ideig (32 hónap, 2011-2014-ig Link )
Jövõ szerdáig tesztüzemmódban fut az új GFS, párhuzamosan a régi GFS-sel, PARA néven. Szerdától pedig ez lesz a GFS, a régit "lekapcsolják".
Értem. Köszi.
A Wetterzentralen csak jövõ héten fog frissülni a GFS azt írja, a többi oldalakat nem tudom.
A Wetterzentralen csak jövõ héten fog frissülni a GFS azt írja, a többi oldalakat nem tudom.
Létezik, ilyenkor nincs helyi adatasszimiláció, hanem a globális modell analízisét használják csak.
Az itteni Aladin adatasszimilációs rendszere is csak 2005 körül lett operatív ha jól olvastam:
"Surface Assimilation So far, in ALADIN-Hungary we did not perform a local data assimilation for the surface (soil) variables. Instead, we have initialized the surface variables with the actual ARPEGE analysis interpolated to our model geometry. "
Link
Az itteni Aladin adatasszimilációs rendszere is csak 2005 körül lett operatív ha jól olvastam:
"Surface Assimilation So far, in ALADIN-Hungary we did not perform a local data assimilation for the surface (soil) variables. Instead, we have initialized the surface variables with the actual ARPEGE analysis interpolated to our model geometry. "
Link
Van egy oldal ahol meg lehet nézni hogy az európai meteorológiai szolgálatok milyen modelleket használnak és azokról adatokat. Na és az egyik mezõben írja h milyen adatasszimilációs módszert használ az adott modell,
és némelyik modellnél azt írja h none, nincs. Link Most akkor az hogy van? Hogy létezik h semmit se használ?
és némelyik modellnél azt írja h none, nincs. Link Most akkor az hogy van? Hogy létezik h semmit se használ?
Na, van egy rakat példa, amikor mégsem ugyanaz lesz, a wikipédia cikk alapján:
- számpontosság, memóriaszûke, lapozófájl, pontosságvesztés máshogy és máshogy
- konkurencia, versenyhelyzet, deadlock (és timeout)
- optimalizálás (ha már 3 órája futok és még mindig csak 72 óránál járok, csökkentem a pontosságot, hogy befejezzem 6 óra múlva): ez függ teljesítményingadozástól, hardwer throttling (túlmelegedés elllen) stb. hogy mennyi idõ alatt hová jut
És nyilván akkor nemdetermenisztikus egy algoritmus, ha nem akarja a végeredményt
kiszámolni, csak egy jó közelítést. Ez pedig pont az elõrejelzések témaköre
Nyilván elméletileg ugyanannak kéne kijönnie, ha nincs véletlenszám-generálás az elõrejelzésben, és minden pont ugyanannyira pontos, minden komponens hibátlan, csakhogy ez sose igaz: de még egyszerûbb programoknál is rendszeres, hogy más futás más eredményt hoz. Sõt, szoftverfejlesztésnél ezek a legjobban utált problémák: tízbõl egyszer jön elõ típusú hiba. Nehéz levadászni, debugolni és megjavítani. Ilyen tuti van a modell-elõrejelzésekben, és valószínûleg a hibakezelõ algoritmus már akkora változást hoz, ami a kimenetelre is rányomja a bélyegét. Elfailel egy egyszerû fájl-írás, egy OS API hívás "Internal error"-t mond és még sorolhatnám: ki tudja, ezek mitõl függnek, de néha elõjönnek, néha nem És ha egy számítás eredménye dob hibát, a hibakezelés lehet eldobja az egészet és egy nagy 0-val helyettesíti az eredményt, ami máris eltorzítja az eredményt pl. egy bonyolult számításnál akár jelentõsen. Máskor meg nem jön elõ...
Minél nagyobb egy rendszer, annál több az ilyen hibalehetõség, és ezeket részben ugyan ki kell küszübülni, de teljesen nem lehet, egyszerûen fel kell készülni rá: hibakezelés.
Több év alatt emlékszem 1-2 esetre, amikor megakadt a GFS frissítés, illetõleg nem is voltak friss képek sehol (WZ, Meteociel). Persze ez lehet webszerver, feltöltés, network hiba is, nem csak az algoritmusban egy végzetes hiba.
- számpontosság, memóriaszûke, lapozófájl, pontosságvesztés máshogy és máshogy
- konkurencia, versenyhelyzet, deadlock (és timeout)
- optimalizálás (ha már 3 órája futok és még mindig csak 72 óránál járok, csökkentem a pontosságot, hogy befejezzem 6 óra múlva): ez függ teljesítményingadozástól, hardwer throttling (túlmelegedés elllen) stb. hogy mennyi idõ alatt hová jut
És nyilván akkor nemdetermenisztikus egy algoritmus, ha nem akarja a végeredményt
kiszámolni, csak egy jó közelítést. Ez pedig pont az elõrejelzések témaköre
Nyilván elméletileg ugyanannak kéne kijönnie, ha nincs véletlenszám-generálás az elõrejelzésben, és minden pont ugyanannyira pontos, minden komponens hibátlan, csakhogy ez sose igaz: de még egyszerûbb programoknál is rendszeres, hogy más futás más eredményt hoz. Sõt, szoftverfejlesztésnél ezek a legjobban utált problémák: tízbõl egyszer jön elõ típusú hiba. Nehéz levadászni, debugolni és megjavítani. Ilyen tuti van a modell-elõrejelzésekben, és valószínûleg a hibakezelõ algoritmus már akkora változást hoz, ami a kimenetelre is rányomja a bélyegét. Elfailel egy egyszerû fájl-írás, egy OS API hívás "Internal error"-t mond és még sorolhatnám: ki tudja, ezek mitõl függnek, de néha elõjönnek, néha nem És ha egy számítás eredménye dob hibát, a hibakezelés lehet eldobja az egészet és egy nagy 0-val helyettesíti az eredményt, ami máris eltorzítja az eredményt pl. egy bonyolult számításnál akár jelentõsen. Máskor meg nem jön elõ...
Minél nagyobb egy rendszer, annál több az ilyen hibalehetõség, és ezeket részben ugyan ki kell küszübülni, de teljesen nem lehet, egyszerûen fel kell készülni rá: hibakezelés.
Több év alatt emlékszem 1-2 esetre, amikor megakadt a GFS frissítés, illetõleg nem is voltak friss képek sehol (WZ, Meteociel). Persze ez lehet webszerver, feltöltés, network hiba is, nem csak az algoritmusban egy végzetes hiba.
Igen, az már nem egy konkrét adatból kiszámolt elõrejelzés, hanem egy véletlennel kombinált valószínûségi elõrejelzés.
A kérdés itt arra vonatkozott, hogy ha lefuttatok 1 konkrét adatsorból egy elõrejelzést, akkor az eredmény függ-e attól a géptõl, amelyiken lefuttattam (függhet, ha más a számpontosság mondjuk a kevesebb memória vagy más számábrázolás miatt), illetve ha ugyanazzal a bemenõadatokkal többször lefuttatjuk ugyanazon a gépen, akkor lehet-e más az eredmény (ha nem tartalmaz az elõrejelzés véletlengenerátort, akkor ugyanaz lesz az eredmény)
A kérdés itt arra vonatkozott, hogy ha lefuttatok 1 konkrét adatsorból egy elõrejelzést, akkor az eredmény függ-e attól a géptõl, amelyiken lefuttattam (függhet, ha más a számpontosság mondjuk a kevesebb memória vagy más számábrázolás miatt), illetve ha ugyanazzal a bemenõadatokkal többször lefuttatjuk ugyanazon a gépen, akkor lehet-e más az eredmény (ha nem tartalmaz az elõrejelzés véletlengenerátort, akkor ugyanaz lesz az eredmény)
Egy számítógép mûködése nyilván 100%-ig determinisztikus. Akárhány billiószor próbáljuk vele kiszámolni, mennyi 6x6, egyszer sem fogja rá azt mondani, hogy 35,9. Szántszándékkal viszont lehet olyan algoritmust írni (lásd: véletlenszám-generátor), ami többször lefuttatva más-más eredményt ad, és az idõjárási modellekben is lehetnek ilyenek.
Nondeterministic algorithm (Wikipedia): Link
Nondeterministic algorithm (Wikipedia): Link
Ezt nem értem, az egyenletek megoldása nem hiszem, hogy függene ezektõl.
Elvileg két futás között ugyanazon a gépen olyasmi miatt lehet probléma, hogy változik a hõmérséklet függvényében a vezetõk ellenállása, más sebességgel történik az adat írása a memóriába, HDD-re, proci másképp melegszik. Lehet, hogy apró eltérések, de mégse adják ugyanazt az eredményt.
Én is így gondolnám, ha nem nálam hozzáértõbb mondta volna. Ráadásul magam is futottam bele programozás során, hogy determinisztikus algó is adott más és más eredményeket. Meg is találtam: Link Nem ma volt szofttech vizsgám így a beszélgetés se tegnap történt
Szerintem pedig ugyanazokkal az adatokkal ugyanazzal a géppel ugyanaz az eredmény fog születni, pontosan az azonos kerekítések miatt...
Errõl annó volt egy vitánk (vagy itt, vagy a hosszútávúban) és talán Antibulvár mondta, hogy de, lehetséges, hogy újrafuttatva más lesz az eredmény, mert bizonyos diffegyenleteket sorba fejtéssel és közelítéssel oldanak meg, amikben soklehet a véges pontosság miatti eltérés, ezek végül összehalmozódva más eredményhez vezethetnek.
Nem lehetséges, hogy ugyanazt a modellfutást, ugyanazzal az adatokkal ugyanazon a gépen futtatva is más lenne a hosszú távú elõrejelzés?
Hogyan lehetséges, hogy ugyanaz a modell (GFS), az NWS újabb szuperszámítógépén kicsit más elõrejelzést produkál?
Egy érdekes cikk: Link
Egy érdekes cikk: Link
Igen, bár ez egy régebbi anyag és itt csak egy projektjükrõl van szó.
Szerintem az alapja egy jól kitalált WRF konfig lehet, de a weben lévõ leírás is ezt sejteti: "The high reliability of Foreca weather forecasts is based on our state-of-the-art utilisation of available weather models. "
Szerintem az alapja egy jól kitalált WRF konfig lehet, de a weben lévõ leírás is ezt sejteti: "The high reliability of Foreca weather forecasts is based on our state-of-the-art utilisation of available weather models. "
Na ez nagyon hasznos infó. Olvasgatva a diasort, tudnak õk jól az ECMWF elõnyeirõl, de dolgoznak, hogy lefaragják. Remélem sikerül nekik
Nem a FIM lesz majd GFS helyett? Meteocielen mintha olyasmit írtak volna.
"Ces cartes présentent les données du modèle FIM (Flow-following finite-volume Icosahedral Model ) américain , qui est probablement le successeur de GFS. . Les runs de 0z et 12z vont jusqu'à 240h. Les cartes sont réactualisées à partir de 7h pour le run de 00Z et 19h pour le run de 12Z, elles ont une résolution de 0.5° . Attention : les actualisations des runs sont assez longues puisque ce modèle est expérimental"
Google ford:
Ezek a térképek bemutatása adatmodell amerikai FIM (Flow-követõ véges-térfogat ikozaéder modell), ami valószínûleg az utódja GFS.
Link
A NOA oldalán már elérhetõ a FIM modell kimenete. Link
"Ces cartes présentent les données du modèle FIM (Flow-following finite-volume Icosahedral Model ) américain , qui est probablement le successeur de GFS. . Les runs de 0z et 12z vont jusqu'à 240h. Les cartes sont réactualisées à partir de 7h pour le run de 00Z et 19h pour le run de 12Z, elles ont une résolution de 0.5° . Attention : les actualisations des runs sont assez longues puisque ce modèle est expérimental"
Google ford:
Ezek a térképek bemutatása adatmodell amerikai FIM (Flow-követõ véges-térfogat ikozaéder modell), ami valószínûleg az utódja GFS.
Link
A NOA oldalán már elérhetõ a FIM modell kimenete. Link
Az év végére elvileg a GFS-nél is újítanak (T1534), a horizontális felbontás 27km helyett ~13km lesz 240 óráig (0-10nap, 0.25fokos gribek) utána 10-16 napig 35km-es.
Az ens tagok felbontása is finomodni fog, 0.-8. nap között 55km-rõl 35km-re, viszont a 8.és 16. nap között marad 70km-es.
-T1534 Semi-Lagrangian (~13km)
-More accurate spectral-grid transforms - completed
-Use of high resolution daily SST and sea ice analysis
-High resolution until 10 days
-Improved Physics
-Cloud estimate modifications
-Radiation modifications – McICA
-Modify how GFS diagnoses snow accumulation
-Reduced drag coefficient at high wind speeds
-Convective gravity wave drag
-Compute and output frozen precipitation fraction
-Land Surface
-Modification of vegetation tables
-Removal of soil moisture nudging
-20 category high resolution vegetation and high resolution soil type
-Spin up of land state
Link
Az ens tagok felbontása is finomodni fog, 0.-8. nap között 55km-rõl 35km-re, viszont a 8.és 16. nap között marad 70km-es.
-T1534 Semi-Lagrangian (~13km)
-More accurate spectral-grid transforms - completed
-Use of high resolution daily SST and sea ice analysis
-High resolution until 10 days
-Improved Physics
-Cloud estimate modifications
-Radiation modifications – McICA
-Modify how GFS diagnoses snow accumulation
-Reduced drag coefficient at high wind speeds
-Convective gravity wave drag
-Compute and output frozen precipitation fraction
-Land Surface
-Modification of vegetation tables
-Removal of soil moisture nudging
-20 category high resolution vegetation and high resolution soil type
-Spin up of land state
Link
Nem tétlenkednek
A 2020-as globális 5 km-es felbontás már nagyon durva. Korábban mintha csak Európára terveztek volna ilyet....
A 2020-as globális 5 km-es felbontás már nagyon durva. Korábban mintha csak Európára terveztek volna ilyet....
Meglehet már az idén jön az új ECMWF modell verzió a T2047 es, ami már 10 km es felbontású lesz.
LeviG és Met4ever köszi a választ. A példában lévõ skálát használtam, 100 ig skálázva.
Spec.nedvesség = levegöben lévö vízgöz súlya(kg) / teljes levegö súlya(kg), ami nagyon kicsi érték (0,00..), ezért nem láttál semmit, amikor ábrázoltad, gondolom nem ehhez illö skálával.
Rel.nedvesség = a levegöben lévö tényleges vízgöz mennyisége / ugyanilyen hömérsékletü levegöben maximálisan lehetséges vizgözmennyiség
A spec. nedvesség térképen ábrázolva nem igen használható, ellenben különbözö származtatott paraméterek kiszámításához jó.
A rel. nedvesség viszont nagyon hasznos térképen ábrázolva is, de önmagában csak egyetlen szint telitettségéröl ad információt. A példában a legfelsö intervallum 200-ig megy, de ez lényegtelen, mert a rel.nedvesség maximális értéke 100%. Illetve bizonyos számábrázolási pontatlanságok miatt a 100,00001 és hasonló értékek is elöfordulhatnak az elörejelzésben, amik az ábrázolásnál nem jelennek meg, ha a skála tetejét pontosan 100-ra állítod, hisz ezek - ha kicsivel is - de meghaladják azt. Ezért szokás 100-nál magasabb intervallaummaximumot megadni.... De 101 is elég lenne, nem fontos 200
Rel.nedvesség = a levegöben lévö tényleges vízgöz mennyisége / ugyanilyen hömérsékletü levegöben maximálisan lehetséges vizgözmennyiség
A spec. nedvesség térképen ábrázolva nem igen használható, ellenben különbözö származtatott paraméterek kiszámításához jó.
A rel. nedvesség viszont nagyon hasznos térképen ábrázolva is, de önmagában csak egyetlen szint telitettségéröl ad információt. A példában a legfelsö intervallum 200-ig megy, de ez lényegtelen, mert a rel.nedvesség maximális értéke 100%. Illetve bizonyos számábrázolási pontatlanságok miatt a 100,00001 és hasonló értékek is elöfordulhatnak az elörejelzésben, amik az ábrázolásnál nem jelennek meg, ha a skála tetejét pontosan 100-ra állítod, hisz ezek - ha kicsivel is - de meghaladják azt. Ezért szokás 100-nál magasabb intervallaummaximumot megadni.... De 101 is elég lenne, nem fontos 200
Gálervin és Met4ever köszi. A specifikus nedvesség ugyanaz mint relative humidity? Azt is akartam próbáltam feldolgozni, GEM-bõl és ECMWF bõl de semi se jelent a meg térképen.
A példában lévõ képen miért szerepelnek ilyen nagy értékek a skálán?
Link Vagy nem % ban van megadva?
A példában lévõ képen miért szerepelnek ilyen nagy értékek a skálán?
Link Vagy nem % ban van megadva?
T és Td különbsége, szóval alapvetõen a nedvességi viszonyokról informál.
Külön-külön szintenként nem tudom, mennyivel jobb, mint pl. az RH, de ugyanezen szintek harmatpont-depresszióját összegezve jó információt kaphatunk a teljes légoszlop nedvességérõl, azt hiszem származtatnak is ebbõl valamiféle indexet, a neve sajnos nem jut eszembe...
Külön-külön szintenként nem tudom, mennyivel jobb, mint pl. az RH, de ugyanezen szintek harmatpont-depresszióját összegezve jó információt kaphatunk a teljes légoszlop nedvességérõl, azt hiszem származtatnak is ebbõl valamiféle indexet, a neve sajnos nem jut eszembe...
A harmatpont depresszió paraméter mire szolgál? A GEM nél sok nyomásszint harmatpont depressziója elérhetõ.
Ja, tényleg.Köszi. Írja is modell nevénél h EPS, nem voltam elég figyelmes.