En kristallkula i en dynamisk verklighet

Peter Lingman Foto: Maria Fäldt

Det är första mötet i det nya projektet där kapacitet, kvalité, tillgänglighet och produktionskostnad ska optimeras. Förändrings- och förbättringsförslagen haglar tätt från olika delar av organisationen och whiteboarden fylls snabbt med gula och rosa lappar. Det är något osammanhängande, precis som det ska vara i uppstarten. Nu ska fjärrvärmesystem få en ordentlig funktionsuppgradering! En del av förslagen handlar om förändrad styrning och att jämna ut förbrukningstopparna, andra om att investera i ny hårdvara och ett tredje om att ansluta närliggande industri som en producent och konsument till nätet. Ni förväntas kunna prioritera och styra jobben – vilka förändringar är mest lönsamma, vilken effekt ger just den där förändringen och hur påverkas hela systemet av dessa förbättringar? Du tar en klunk kaffe, känner den första svettpärlan bildas i pannan. Utan darr på rösten meddelar du att ni behöver en kalendermånad för analys och utvärdering. Aldrig tidigare har den där kristallkulan som du kan mata med frågor och få ut svar varit så önskvärd som idag.    

 

Inom digitalisering av processindustrin är den digitala tvillingen redan ett populärt begrepp. I diskussioner hör man ofta lite olika definitioner och fortfarande är det nog så att betydelsen av den digitala tvillingen ligger i betraktarens öga. Innebörden och kanske framförallt vad som verkligen är viktigt med den digitala tvillingen varierar från person till person och organisation till organisation helt enkelt. För mig handlar den digitala tvillingen väldigt mycket om kristallkulan som nämns i inledningen. En dynamisk modell av anläggningen. Om att konstant ha tillgänglighet till en prediktionsplattform. Att i alla lägen vara beredd på att svara på frågan - vad händer om vi gör så här? Det är just behovet av prediktionsförmåga, eller kristallkula, som driver utvecklingen av simuleringar i industrin. I många fall finns denna prediktionsförmåga utspridd i organisationen. Tar vi ett fjärrvärmenät som exempel så kan operatörer välja att ladda nätet med lite mer värme om prognosen visar på en kall natt och därigenom undvika att starta dyra spetslastpannor. Man kan säga att modellen finns i huvudet på personalen baserat på praktiska försök och tester, så kallade datadrivna modeller med neuron nät, men i detta fall inte artificiella sådana. Det som ofta händer, speciellt i större organisationer, är att ”huvudmodellerna” blir många till antalet och inte alltid returnerar samma svar på samma fråga. Det är här matematiska modeller blir en stor tillgång. De har en förmåga att objektivt svara på en frågeställning vilket inte bara leder till en vettig teknisk lösning utan även till att sammansvetsa och homogenisera personalen - få alla att dra åt samma håll helt enkelt.

I inledningen skisserades en strid ström av förbättringsförslag som fick ansvarig person att bli lite nervös. Hur undviker vi detta och hur kan vi ta fram en vettig kristallkula? Det är väl knappast fråga om någonting nytt tänker du, simuleringar har vi ju använt ett bra tag? Nja säger jag. Troligtvis har det i så fall rört sig om statiska modeller som inte alls avslöjar vad som händer över tid eller så har det varit relativt småskaliga dynamiska modeller med ett fåtal komponenter inblandade och därmed är det svårt att förstå hur hela systemet beter sig. Genom att arbeta systematiskt och smart så kan vi faktiskt hamna i ett läge där fokus skiftar från att ett fåtal specialutbildade personer sitter och hackar ihop simuleringar till att personer som inte alls har en simuleringsbakgrund kan använd och dra nytta av simuleringar i sitt dagliga arbete.

Det som möjliggör detta är en kombination av att använda mätdata smart, att låta modellen anpassar sig till förändringar och frågeställningar och där modellen är tillgänglig oavsett vilken dator eller mjukvara du har tillgång till. Nyckelord i sammanhanget är konsumentdata, processdata, användarvänlighet samt tillgänglighet. Jobbar vi med dynamiska modeller så krävs naturligtvis konsumentdata med tillräcklig upplösning. Vill man studera utjämning av dygnsvariationer (peak-shaving) där en topp har en varaktighet på ett par timmar så säger det sig självt att data ska vara samplat på minutskala snarare än per timme eller dygn vilket i sig möjliggörs av en förbättrad instrumentering av undercentraler. Vi kan på det sättet få dynamiska datadrivna modeller av konsumenter som alltid är tillgängliga och alltid fungerar. Tack digitalisering!

När det gäller modeller av själva fjärrvärmenätet lämpar sig fysikaliska (dynamiska) modeller bättre än datadrivna, d.v.s. modeller där man enkelt kan lägga till en ledning, en ventil eller pump. Modellbibliotek med isolerade rör, reglerventiler, pumpar, värmeväxlare, värmepumpar osv är relativt välutvecklade och mer eller mindre standard i många industrier idag. Utmaningen på fjärrvärmesidan handlar främst om hur man bygger själva modellen då ett normalstort fjärrvärmenät består av flera produktionsanläggningar, en massa ventiler, tiotusentalet konsumenter och än fler rörsektioner. Även om man skulle sätta av några tusen mantimmar på att manuellt koppla ihop dessa komponenter till en modell av ett fjärrvärmenät så skulle den modellen förmodligen bli näst intill omöjlig att praktiskt använda, den blir helt enkelt för stor. Det som krävs för att det hela ska fungera är att modellen kan konfigureras och byggas automatiskt och att den modellen sedan kan förenklas och anpassas till behoven. Genom att utnyttja effektiva modellering språk så som Modelica® (vilket också förespråkas i IAEs Annex 60 för modellering av energisystem) kombinerat med GIS-databaser kan modelleringen automatiseras helt. I figuren visas ett modellbygge och förenkling av ett medelstort fjärrvärmenät i Sverige bestående av ca 10,000 konsumenter, fyra produktionsanläggningar, tre tryckstegringsstationer, ca 45,000 rör och ett antal givare för tryck, temperatur och flöde. Genom att läsa in befintliga GIS-data och därefter automatiskt förenkla och reducera nätmodellen så att den blir användbar för de tester man vill göra (i detta fallet peak-shaving och förändringar i framledningkurva) består den slutgiltiga modellen av ca 400 konsumenter vilket kan simuleras flera gånger snabbare än realtid på en standard dator. För att ytterligare förbättra prestanda och öka tillgängligheten till simuleringarna placeras de lämpligtvis i molnet så att användare kan interagera med simuleringen genom en vanlig webläsare.