Denne tråd er over 6 måneder gammel
Er du sikker på, at du har noget relevant at tilføje?
Hjælp! CentOS eller BIOS fejlAf Ny på siden rasm945i | 21-05-2018 02:09 | 2531 visninger | 65 svar, hop til seneste
Hej allesammen
Info:
Jeg er forholdsvis ny her, så er ikke sikker på at jeg har postet på det korrekte forum.
Jeg sidder med en HP Proliant DL360 G6 server, med en on-board RAID controller som har 4 SAS harddiske i RAID 5.
Styresystemet er CentOS 7.
Udover det har jeg også rådighed over en IBM X3650 M3 7945, der kører SAS diske i RAID 5. Jeg er usikker på om RAID controlleren er on-board der, men mener at den ikke er det.
Problem:
Når jeg booter serveren op, ser BIOS helt korrekt ud, jeg kan tjekke indstillinger, ændre indstillinger og gemme dem. Jeg bliver sendt videre til skærmen hvor jeg kan vælge hvilken CentOS jeg vil køre, der venter jeg normalt ~5 sekunder, så den selv vælger den øverste.
Næste skærmbillede er det skræmmende problem. http://prntscr.com[...]
Kvalitet er ikke det bedste, jeg vidste ikke helt hvordan jeg skulle tage et billede af det.
Jeg bider primært mærke i den øverste linje; [Firmware Bug]: the BIOS has corrupted hw-PMU resources (MSR 38dis 330)
Hvad jeg har prøvet:
Jeg har flashet BIOS til den nyeste version. Før kørte den en BIOS fra 2013, nu har jeg opdateret den til en fra 2015, stadig samme problem.
Jeg har bootet ind i Rescue Mode fra et CentOS 7 USB stik, og forsøgt at se om jeg kunne tilgå nogle filer. Det kunne jeg ikke.
Jeg kan ikke huske præcist hvilke fejl jeg fik, men det var ofte at "drevet er i brug" når jeg forsøgte at mounte /dev/sda.
Jeg har undersøgt om det er muligt at flytte diskene over i en anden server, men fandt frem til at når det er en on-board RAID controller, så er chancen for at det lykkedes ekstremt lille.
Jeg har kørt "xfs_repair", uden held. Den kunne ikke finde nogen secondary superblock.
Hvad jeg tror der er skyld i problemet:
Problemet opstod efter jeg ændrede i CentOS partitionerne, inde i CentOS, efter styresystemet var installeret. Jeg gjorde det for at opnå en større /home partition.
Det lyder sikkert ekstremt dumt, men jeg har lært at jeg nok ikke skal gøre det igen.
Til sidst:
Jeg er meget åben over for forslag til hvad jeg kan prøve. Mit mål er at få data af diskene.
Hvis der er ting man kan prøve, som risikerer at "ødelægge" styresystemet på serveren endnu mere, så er jeg villig til at prøve det.
Uanset hvad, så skal der installeres et nyt styresystem på serveren på et eller andet tidspunkt.
Tak for hjælpen på forhånd.
- Rasmus :) --
Jeg skal lige starte med at sige at min erfaring med xfs er minimal
Antager at du prøver at gendanne data, fordi du ikke har en backup ?
Du burde lave en klon af dataerne, med f.eks. ddrescue også arbejde med gendanne data via kopien, fremfor det originale datasæt.
Kan du beskrive lidt nærmere hvad du prøvede at ændre og hvordan (fulgte du en guide, så post linket)
Kom og så gerne med noget output fra xfs_info, xfs_check, mount, df, lsblk, lshw -class disk -class storage -short
(Smid helst kommando output på pastebin.com eller ligende)
Der findes i øvrigt gendannelses software, der kan håndtere XFS, det kunne du også kigge lidt nærmere på. -- [email protected] --
Sidst redigeret 21-05-2018 02:44 #1 Tak for svaret :)
Jeg er ikke sikker på filsystemet serveren bruger.
Og ja, jeg har været så dum ikke at have nogen ekstern backup af det data jeg vil gendanne. Jeg vil få gang i serveren og få fat i noget output, og se om jeg kan finde nogle af de guides jeg fulgte, eller nogen der minder om dem. -- #1
Jeg er ret sikker på at jeg fulgte dette eller noget der ligner rigtigt meget: https://serverfault.com[...]
Jeg genkender kommandoerne, men folderne der bliver brugt som argumenter ser ikke bekendte ud, jeg kan huske forkert. Det er halvanden måned siden jeg gjorde det.
Der var problemer med at unmounte, så jeg tvang den til at unmount, muligvis med kommandoen i svaret under, men er ikke helt sikker. -- #2/3 LVM + XFS lyder meget rigtigt, når der er tale om Red Hat afledte distro'er
Ja, sådan er det med Linux, det er ikke nødvendigvis idiot sikret, så den skal nok gøre det, men du skal ikke forvente at tingene nødvendigvis går godt, hvis filsystemet er brug og du tvinger unmount :-)
Men kom med noget output fra ovenstående kommandoer (jeg kender ikke lige dine navnene på dine filsystemer, så jeg kan ikke skrive alle de korrekte argumenter, dem må du selv tilføje)
Kom også med output fra vgdisplay og lvdisplay -- [email protected] --
Sidst redigeret 21-05-2018 04:31 #1 jeg glemte at svare på hvad jeg forsøgte at ændre. I den guide jeg sendte, og i min post under " Hvad jeg tror der er skyld i problemet" er nok den bedste forklaring jeg kan komme med.
Jeg vil også få kigget på ddrescue, og undersøge gendannelses software til XFS, mit problem er bare lidt at det er i RAID. Jeg har ingen erfaring med gendannelse af data, så måske er det kun i mit hoved det er en forhindring.
Når jeg booter ind i Rescue Mode, og vælger "1" for at fortsætte, og lade Rescue Mode selv finde og mounte en Linux Partition, skriver den "You don't have any Linux partitions."
Jeg forsøgte mig også med nogle af de kommandoer du foreslog, alle sammen fra CentOS rescue mode fra USB stik.
lshw > Kommandoen findes ikke.
xfs_check > Kommandoen findes ikke.
xfs_info > "Usage: xfs_info [-V] [-t mtab] mountpoint", og jeg har ikke et mountpoint jeg kan give til den, da jeg ikke kan mounte noget, bortset fra Resue Mode.
df > https://pastebin.com[...]
lsblk > https://pastebin.com[...]
mount > https://pastebin.com[...]
dmesg | tail > https://pastebin.com[...]
#3 Jeg får fat i mere output. Jeg sætter stor pris på din hjælp, mange tak :) -- #5 cat /mnt/sysimage/etc/fstab også tak -- [email protected] --
Sidst redigeret 21-05-2018 04:47 Er kommet i tanke om at jeg ville gøre home partitionen mindre, og i stedet have al harddisk plads på /, da den dækker det hele, og jeg ikke har behov for 2 seperate partitioner.
#4
vgdisplay > https://pastebin.com[...]
lvdisplay > https://pastebin.com[...] -- #6 Der er ikke mountet noget på /mnt/sysimage; det er bare en tom folder -- #7 Man kan ikke gøre XFS filsystemer mindre. Det er ikke understøttet: http://xfs.org[...]
#8 Jeg kan slet ikke se nogen home volume i lvdisplay?
i forhold til mount, så skriv "mount" og ikke andet.
Jeg vil gerne se nuværende mountet filsystemer :-)
giv mig også pvdisplay -- [email protected] --
Sidst redigeret 21-05-2018 04:58 #9
Jeg slettede home partitionen/volumen for at skaffe mere diskplads til /. Det lyder mere og mere som om jeg har gjort noget helt galt. Det lykkedes mig at få mere plads på / partitionen, så måske er det ikke XFS jeg bruger, det er muligvis ext3, med mindre noget hentyder andet.
mount > https://pastebin.com[...]
pvdisplay > https://pastebin.com[...] -- #10 Jaok - det bliver sgu op af bakke.
Prøv lige at undersøg fs type med file -s /dev/sdaX -- [email protected] #13 Det vil jeg prøve når jeg vågner, hopper i seng nu. Tak for hjælpen indtil videre :) -- #15 få mountet root
mkdir -p /mnt/sysimage
mount /dev/centos/root /mnt/sysimage -- [email protected] #16
https://pastebin.com[...]
Jeg har pt ikke adgang til nogen ekstern harddisk, eller et stort USB stik. Jeg ved ikke hvordan jeg skal kunne flytte dataen et andet sted hen og så jeg ikke "eksperimenterer" direkte på det originale datasæt. -- Prøv at kør fsck.xfs /dev/centos/root også mount igen hvis det bliver glad.
Og så må du jo skaffe et sted at have en kopi -- [email protected] #18
Jeg vil få skaffet en ekstern harddisk så jeg kan have en kopi af data jeg kan prøve kommandoerne på først. Vender tilbage når jeg har fået det gjort. -- #20
Tak for linket, det gav en smule viden.
Jeg bliver dog smidt direkte ind i Emergency Mode, og kan ikke bruge styresystemet pga. det.
Der står hvad der nok er skyld i problemet, men jeg kan ikke se hvad løsningen skulle være. Er der noget jeg overser?
This is caused by the ROM using performance counters Linux also wants to use.
Skal de "ROM Performance Counters" slås fra, eller hvad hentyder han til? -- Jeg kan ikke se hvordan det har en sammenhæng med problemet, som #0 beskriver
This is caused by the ROM using performance counters Linux also wants to use. Linus doesn't like the hardware using any of these counters so he marks it as a bug. It's just a message and doesn't have any impact on the system. or the operation of the OS.
Samt det faktum at #0 selv forklare at han vidst nok har slettet en LVM volume og voldtaget filsystemerne med unmount :-P -- [email protected] --
Sidst redigeret 22-05-2018 21:51 #22
Ssshhhhh xD
Efter jeg havde mishandlet filsystemet og alt det, har jeg haft genstartet serveren 1 gang. Der var lidt problemer med at få gang i den, men det lykkedes. Jeg kan ikke huske hvordan, men er ret sikker på at det ikke er samme problem nu. -- #24
Nej. Jeg venter til jeg har fået fat i en ekstern harddisk så jeg kan have en kopi af dataen som jeg kan operere på, som du foreslog. -- #23 hvor meget data er der tale om? Har en server med en del HDD kapacitet jeg muligvis kunne stille til rådighed så du slipper for at spændetrøje penge. Smid mig en PM hvis det har interesse -- Sidst redigeret 22-05-2018 22:38 #26
Mange tak for tilbuddet, men bor i Midtjylland, så det vil nok være nemmere at anskaffe en ekstern harddisk, hvis du bor omkring KBH som din profil viser :)
Det er højst 438GB, det er hvad der max kan ligge på serveren, men tror kun der er ~200GB i brug.
#27
Ved ikke helt hvad arbejdsregi betyder, men hvis det er mht. hvad der er på serveren, så er det mest hobby, men hoster nogle Minecraft servere for folk der gerne vil have genskabt deres data :P -- #28 havde nu også tænkt at det skulle overføres over nettet, sidder selv på en 100/100 forbindelse så det er helt op til din tålmodighed -- #29
Det vil jeg lige vende med ham jeg har serveren sammen med, og så give svar i morgen. -- #30 Du skal have mountet det skid root filsystem også :-P
Hvis du er meget heldig, så kan du finde en backup af LVM metadata
https://www.thegeekdiary.com[...]
Men de bliver gemt i /etc/lvm, som er en del af root filsystemet / root volume.
Det er derfor jeg meget gerne vil have mountet root filsystemet (/dev/centos/root), som lvdisplay trodsalt kan se.
Jeg glemte at sige du skal mount read only, dvs "mount -o ro device path" (som udgangspunkt mount ALTID read only fra nu af) med mindre der specifikt er grund til andet
Hvis der er en backup, kan du måske genskabe home volume i LVM :-) -- [email protected] --
Sidst redigeret 23-05-2018 00:31 #31
Så med den seneste kommando du foreslog er der ikke risiko for at ødelægge noget?
Hvis der ikke er, så vil jeg se om jeg kan få mountet root filsystemet i Read Only mode :) -- #29
Jeg er blevet opmærksom på at det er imod vores egen Terms of Service at dele vores data med tredjeparter, så selvom det er er godt tilbud, så kan jeg ikke sige ja til det :( -- #22 min pointe er at der ikke er en fejl i BIOS som overskriften stiller spørgsmål til. Det har intet med din 'tråd' om filsystemet at gøre. -- --
Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen. Som MadsFerguson er inde på, så er den BIOS Fejl helt "normal" og intet du skal bekymre dig om.
Dit problem er filsystemet som er b0rked, dit eneste bud er at boote en live linux og så mounte dit raid, hefter skal du køre xfs_repair i håb om at den kan rette de eventuelle fejl der er.
Vær obs på at du kan meget vel have tabt data på den måde som du har pillet i partitionerne.
#31 - Han skal ikke mounte filsystemet, et broken filsystem kan ofte ikke mountes og repairs skal altid køres uden at filsystemet er mounted.
Billedet du har postet i #0 fortæller dig faktisk præcis hvad du skal gøre ;)
Good luck, forvent dog at have tabt alt data ;) -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
--
Sidst redigeret 24-05-2018 13:02 #36
Tak for svaret.
Jeg har også lært af mine fejl nu, og forventer at dataen ikke kan reddes, men man har altid lov at håbe :P -- #37
Så lidt, LVM er smart, men det gør (i min øjne) tingene noget mere kompliceret når du skal redde data.
Hvis du kan starte en live linux op, opsætte ssh så kigger jeg gerne på det hvis det ikke er imod jeres retningslinjer.
Kan se jeg fik skrevet en lille detalje forkert i mit opslag #36
Du skal naturligvis ikke MOUNTE dit raid, men derimod sørge for at den kører, dette kan du gøre ved at se om din live distro faktisk finder diskene i /sys/block eller ved at gennemgå dmesg for at se om controlleren er startet op.
Der er en "mini" guide her; https://prasadlinuxblog.wordpress.com[...]
Bemærk dog at det kan variere hvordan kommandoerne skal være alt efter hvordan dine lv's er navngivet osv. -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
--
Sidst redigeret 24-05-2018 13:13 #38
Det er ikke muligt at du kan SSH ind i serveren, da den er flyttet til at stå hos mig mens der er problemer, og jeg bor på kollegie. Derudover er jeg rimelig sikker på at det også er imod vores retningslinjer.
Jeg er ret sikker på at RAID controlleren starter. Vil se om jeg kan nå et skridt længere med den information du har givet mig :) -- #38 jeg er kommet frem til at den kan se en root volume, men han siger at der har været en home volume også.
Når han forsøger at mounte root, så fejler den, så har bedt ham køre fsck, men kender ikke status af dette.
jeg tror det er LVM + XFS
#39
Hvorfor er det imod jeres retningslinjer at SSH ind i maskinen ?
Du kan evt. lave en reverse SSH tunnel, til en server på internettet, hvis det er pga. NAT'ing/firewall ikke kan lade sig gøre. Så kan man jump igennem den. -- [email protected] --
Sidst redigeret 24-05-2018 18:54 #40 - Det er også fair nok, men alle detaljerne er i hans oprindelige screenshot.
Ud fra det billede og de informationer den giver der, så skal man slet ikke prøve og mounte da det enten ikke vil virke eller bare gøre tingene værre.
Du behøver heller ikke og tro det er LVM og XFS, det fremgår også af hans billede at det er XFS ovenpå LVM.
Han skriver at han direkte har slettet home, hvilket er ren idioti i første omgang og ikke lige den rette fremgangsmåde :) -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
#41 Nej, det er klart han ikke skal mount før han har backup, det har jeg også skrevet han skal fortage sig :-)
Men han har også problemer med at mount root, hvor han formentlig også har en backup af LVM metadata.
Så efter backup, så prøve at køre fsck / repair tools og prøve at mount root readonly ala dit link :-)
Venter spændt på at høre resultatet.
Når det er gjort kan han prøve at tjekke /etc/lvm ud for en backup af LVM metadata eller har du andre ideer ? -- [email protected] --
Sidst redigeret 25-05-2018 04:31 #40
Det er imod vores retningslinjer at dele data med tredjeparter.
#41
Det er også efter hånden gået op for mig at jeg har gjort noget virkelig dumt xD
#42
Arbejder stadig på at finde en måde at få lavet den backup inden jeg tager flere skridt :( -- #43
Problemstillingen er at du ikke rigtigt kan lave backup pt, for at kunne læse data så skal du have mounted dit filsystem.
Men fordi du har ødelagt filsystemet, så skal du igennem en repair af filsystemet før du kan gøre noget som helst.
Du vil nok godt kunne lave en dd af hele disken over på en anden disk, men det vil stadig bare kopiere det ødelagte filsystem med over.
Backup EFTER at tingene er gået galt er ikke den rette måde ;)
Man up, gå igennem guiden jeg sendte tidligere for at forsøge og genskabe filsystemet, og så håb på at det virker - Du vil ikke kunne lave en brugbar backup nu hvor filsystemet er i en ødelagt tilstand. -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
#44
Jeg skal bare i gang med guiden du sendte, forstået.
Ham jeg har serveren med har lidt mere server erfaring end mig, på den måde at han ved hvad der skal gøres, men ikke ved hvordan. Jeg ved hvordan, men ikke hvad.
Han har nu sagt at der skal købes NAS server eller ekstern harddisk så vi kan lave ugentlige (eller oftere) backups.
Er der muligvis noget backup system/software der kan anbefales? :)
Backup på den korrekte måde, er det at kopiere de vigtige filer, eller at få hele systemet over?
Er stadig i læringsprocessen. -- #45
Hos "mig" laver jeg kun backup af data, ingen konfigurationer da nærmest alting er "basic". (Jeg har eget hosting firma).
Jeg vil dog anbefale at lave noget hvor den kopierer konfigurationsfiler over, således at man kan reinstall OS og installere tjenester og så bare importere konfigurationen bagefter.
Til mindre ting, så bruger jeg faktisk bare at rsync script som kopierer til en remote server - Rsync er smart, let og kan scriptes meget let og så bar eksekveres i cron så den kører X antal gange.
Jeg kører backups 2 gange i døgnet som standard (For mine kunder) eller 24 gange i døgnet for dem som køber udvidet backup - Alle mine backups er bare differential backups. -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
--
Sidst redigeret 25-05-2018 22:55 #46
Okay, det er også det der lyder mest fornuftigt. Men backup hver time, slider det ikke meget på diskene, og bruger meget CPU?
Hvor længe beholder du de backups der bliver taget?
#47
Hvad mener du med /usr/jail/ ? -- #48 I forhold til "hvor ofte", så det nok mest dig der kan svare på det.
Efter min mening er det meste simple du kan gøre, er at bruge de værktøjer du allerede har.
Du kan bruge tartil at lave fulde og inkrementelle backups, samt cron til at automatisere det, og ssh/scp til at flytte det backups til en remote destination, som f.eks. en NAS/Linux server/what ever.
Her er lidt inspiration: http://beyond-syntax.com[...]
I dit tilfælde som #46 påpeger, så så skal du også have /etc med, men tar har fine "exclude/include" options. -- [email protected] --
Sidst redigeret 26-05-2018 21:28 #38 / #46
Jeg fulgte din guide, og den endte med "Sorry, could not find valid secondary superblock. Exiting now."
Det betyder vel at jeg har lavet så stor en fejl at mit data ikke kan genskabes?
#49
Tak for svaret og linket. Det åbner mine øjne lidt mere op for hvordan backup skal/kan foretages. -- #51
Den sidste, xfs_repair -n /dev/mapper/centos-root -- xfs_check og xfs_repair -n er det samme.
Så hvad gav xfs_repair /dev/mapper/centos-root ? -- [email protected] #53
"Sorry, could not find valid secondary superblock. Exiting now."
Ligesom jeg skrev lidt højere oppe, #50 :) -- #54 Okay, så både xfs_repair /dev/mapper/centos-root og xfs_repair -n /dev/mapper/centos-root giver samme fejl ? -- [email protected] #55
Har ikke prøvet xfs_repair /dev/mapper/centos-root
Det burde jeg, eller hvad? Har kun kørt det med -n -- #56 som jeg skrev så er xfs_repair -n og xfs_check det samme :-)
(det står også i linket, hvis du læser efter i bunden)
Så hvis du ikke har kørt den, jermen så skal du gøre det, jvf. guiden.
ps, xfs_repair kan tage langtid at fuldføre -- [email protected] --
Sidst redigeret 27-05-2018 00:28 #57
Note: #xfs_repair -n /device instead of xfs_check both will perform the same task.
Taget fra guiden. Men det kan vel ikke skade noget at prøve. Sætter den i gang nu :) -- #57
Jeg misforstod den "Note" jeg pastede.. Troede han mente at xfs_repair -n ville både xfs_repair og xfs_check :P -- #57
Den skriver det samme:
"Sorry, could not find valid secondary superblock. Exiting now." -- #60 Er det alt, eller er der ikke mere output ?
Prøv at kør den et par gange eller 3 -- [email protected] --
Sidst redigeret 27-05-2018 04:52 #60 - Hvis filsystemet er så broken at den ikke kan finde nogen superblocks, så er du basically fucked, medmindre du er så heldig at en nyere udgave fra fx git kan klare det.
Det er "xfsprogs" du ska finde og compile.
Jeg har en dev fra xfs på min skype, jeg har lige prøvet og smide ham en besked :)
#61 At køre den flere gange vil ikke gøre nogen forskel, xfs_repair er lavet til at køre én gang og rette samtlige fejl :) -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
--
Sidst redigeret 27-05-2018 17:44 #61
Den skriver en masse punktummer, og "Found potential secondary superblock" efterfulgt af "Not valid secondary superblock" eller lignende. Det er det samme om og om igen :P
#62
De nyeste versioner af xfsprogs jeg kan finde via Google og så ind på GitHub har seneste commit fra 2015, så tvivler på at lige dem jeg fandt hjælper.
Eller er det noget lignende det her du hentydede til? http://xfs.org[...] -- #63 - Jep, det er xfs userspace du ska compile fra det link der for at få nyeste xfsprogs :) -- CPU:i7-6700k GFX: GTX1060
HDD MAIN: 2xSamsung 950Pro 512GB (Raid0)
Storage: 24x4TB + 24x3TB + 40x8TB JBOD
#64
Når jeg forsøger at gøre det, fra en Live Centos, så skriver den at det er et read-only filsystem. Præcist hvad jeg fik, var følgende:
fatal: write error: Read-only file system, 641.01 MiB | 10.63 MiB/s
fatal: index-pack failed
Forsøgte efterfølgende at installere de packages der kræves for at compile, hvis jeg har forstået det korrekt. Der skrev den også:
No write access to /usr directory
Maybe this is an ostree image?
To disable you can use --setopt=usr_w_check=false
Tør ikke helt sætte usr_w_check til false, med mindre nogen foreslår det.
Er der andet jeg kan prøve, eller gøre for at løse problemet?
Tilføjelse:
Det gik op for mig at jeg første gang kørte denne kommando: git clone git clone git://git.kernel.org/pub/scm/linux/kernel/git/dgc/linux-xfs.git (Den til linux-xfs.git) og den gav ovenstående fejl
Prøvede efterfølgende med det korrekte link, det gav en anden, men lignende fejl:
fatal: could not create work tree dir 'xfsprogs-dev'.: Read-only file system --
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 424 personer har stemt - Mit energiselskab (Ewii f.eks) 11%
|