Ibland när jag får höra talas om en nysläppt webbplats blir jag nyfiken på att kolla hur den presterar. Det här är ett sådant exempel då jag via Linkedin snubblade över att Skandia fastigheter blivit med ny webb.
När jag skriver analysrapporter på jobbet brukar jag inleda med att jag inte slösar med allas värdefulla tid genom att ta upp allt som redan är bra. Samma sak här. Jag är enbart ute efter det som kan bli bättre och väcka frågeställningar.
Obs! Det är ofta så att en webbplats lanseras med en del brister som teamet är medvetna om och ska fixa framöver. Det är fördelen med webbutveckling – det kan vara ”tillräckligt bra” vid lansering och så fortsätter man ett tag till tills man är helt nöjd.
Fastighetsbolaget Skandia Fastigheter har en nysläppt webbplats som bygger på Optimizely och har Rek.ai för innehållsrekommendationer. Consid har utvecklat och:
”[…] fokuserat på att skapa en tillgänglig och modern webb där användarupplevelsen är i fokus”
– Maria Olsson, konsultchef på Consid
Det är alltid intressant att undersöka hur väl organisationer lyckats när de vill skapa en tillgänglig upplevelse.
Metoden här är att köra Webperfs Audit-funktion på hela webbplatsen, de övriga testerna från Webperf Core men också med ett tränat öga skrapa lite på ytan för att se vad som går att hitta.
Nedan är observationer från en utomstående som använder analysverktyg och kollar lite kod.
Allmänna observationer under ytan på webbplatsen
Jag är ju en sån där webbstandardtaliban. Man ska följa typ alla vettiga standarder som finns, inte låsa in sig i enskilda aktörers ekosystem, och så vidare. Så när jag börjar skrapa på ytan kollar jag ofta vilka standardfiler man har.
Teknisk SEO
Först kollar jag robots.txt och hos Skandia fastigheter finns den, den har inte egentligen några felaktigheter, men det är praxis att lista sin sitemap för att underlätta om andra vill få koll på webbplatsen. Skandia fastigheters är så minimalistisk som den kan tänkas vara, nämligen:
User-agent: *
Disallow: /
Vad betyder denna robots.txt? Jo att man blockerar alla sökmotorer från att crawla och indexera webbplatsen. Raka motsatsen till SEO och troligen ett misstag vid driftsättningen. Att åtgärda sånt här är brådskande så man inte upptäcker det först när webbplatsen (enligt ens egna önskemål) rensats bort från sökmotorernas resultat.

Apropå sitemaps går det ofta att gissa sig fram till om det finns en sitemap då de brukar ha särskilda filnamn. Jag får träff på https://www.skandiafastigheter.se/sitemapindex.xml, men till min förvåning så pekar den på en subdomän som inte fungerar. Så här ser den ut:
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<sitemap>
<loc>https://sfprod.skandiafastigheter.se/sv/sitemap.xml</loc>
</sitemap>
</sitemapindex>
Sitemaps ska ligga på samma domän som webbplatsen och i det här fallet fungerar inte subdomänen sfprod. Skandia fastigheter kanske har en annan sitemap de bara delar med Google Search Console, dock skulle det inte följa webbstandard och jag tror inte Google skulle indexera webbplatsen med tanke på hur deras robots.txt ser ut.
Webbplatsen har ingen security.txt vilket är en missad möjlighet ifall någon välvillig utomstående vill berätta om säkerhetsbrister som upptäcks.
→ Därför ska du ha en security.txt på din webbplats (Webperf, 2021)
Följs god praxis för kakor och GDPR?
Tyvärr används ett dark pattern för att be om samtycke för kakor. Det är nämligen lättare att acceptera alla kakor än att tacka nej. Så här ser det ut:

→ Understanding EU legal obligations with dark patterns (WebExpo, 2025)
PTS (Post- och Telestyrelsen) är tillsynsmyndighet för det som slarvigt kallas för kaklagen och de beskriver kravet på samtycket så här:
”Det ska vara lika enkelt att tacka ja som nej till kakor. Användaren ska kunna välja att tacka nej till kakor vid samma tillfälle och i samma vy som hen kan tacka ja.
Knapparna för tacka ja och tacka nej ska utformas på liknande sätt. Tacka ja-knappen får inte vara designad så att det är enklare att klicka på den.”
– Kakor (cookies) (PTS)
Det finns fler regler men dessa två har ändå många nysläppta webbplatser börjat följa. Länken cookieinformation
i kakfrågan får nedslag för att ha för dålig kontrast och vara otillgänglig. Det är förstås inte bra. Och är enkelt hittat med Lighthouse i Chromes utvecklarverktyg eller Pagespeed Insights.

Att kontrastförhållandet mellan texten Acceptera alla cookies
och dess bakgrund på knappen är bra nog, men inte alls bra nog på något av de andra alternativen är en bonus till diskussionen om ett dark pattern. Det blir ett dark pattern både i form av enkelheten att tacka ja, men att det alternativet är det enda tillgängliga för personer med nedsatt syn. På tal om personer med funktionsnedsättningar så går det inte att navigera med tangentbordet till länken "cookie-inställningar" i sidfoten, eftersom det inte är en riktig länk. Det är inte så etiska samtycken funkar! Gör om och gör rätt!
Vilka fler deltar på webbplatsen?
Ifall man är nyfiken på hur många tredjeparter de har är Webbkoll ett utmärkt verktyg. Resultatet för www.skandiafastigheter.se hos Webbkoll visar att bland annat Google Analytics får besökarnas IP-adress oavsett om samtycke givits.
Nu nämns inte Google Analytics specifikt i Skandia fastigheters policies. Dock skriver de att de hävdar berättigat intresse som laglig grund och då är det helt korrekt att inte be om samtycke:
“Merparten av vår behandling av personuppgifter sker med stöd av en intresseavvägning vilket innebär att vi har berättigat intresse att behandla dina uppgifter för ett visst ändamål som väger tyngre än den risk för din integritet som behandlingen innebär.”
– Behandling av personuppgifter i digitala kanaler vid marknadsföring och övriga marknadsaktiviteter (PDF)
Så vad betyder ett berättigat intresse (ofta känt som en intresseavvägning)? Kom ihåg, jag är inte en jurist. Däremot kan vi kolla vad den svenska tillsynsmyndigheten för GDPR skriver som tips till de som vill dela uppgifter med ”tredje man” som Google, Rek.ai och Mynewsdesk:
“Med intresseavvägning som rättslig grund får ni lämna ut personuppgifter till det som kallas "tredje man", alltså till någon annan som har ett berättigat intresse. Innan uppgifterna lämnas ut ska ni ta reda på
- varför de vill ha personuppgifterna
- om de verkligen behöver dem
- vad de ska användas till.”
Killgissningsvis har nära på ingen som använder Google Analytics, Rek.ai, Mynewsdesk, med flera, tagit reda på exakt varför de vill ha personuppgifterna
. Jag tror snarare att man varit följsam och inte tänkt på att man som utgivare av en webbplats också är ansvarig för alla de här tredjeparterna man bjuder med.
Skandia fastigheters webbplats låter Google Analytics, enligt Webbkoll, göra inget mindre än Fingerprinting, Email och Analytics. Att anse fingerprinting, från ett företag utanför EU, vara nödvändigt är rätt magstarkt.
→ Device fingerprint (Wikipedia)
Tillgänglighet, SEO och hastighet
Det är 195 stycken sidor som körts igenom Webperfs Audit-funktion. En Audit är i princip att köra Lighthouse-testerna för tillgänglighet, SEO, hastighet och praxis på hela eller stora delar av en webbplats.
Samtliga sidor på den här webbplatsen har minst en brist inom tillgänglighet. Det beror på länken i kakfrågan och den testmetod som används så dyker den frågan upp på varje sidvisning. Det är kontrastförhållandet på den vita texten mot den gröna bakgrunden som skulle behöva vara lite tydligare.
Ifall det löses återstår brister på nästan hälften av webbsidorna och det handlar om följande typer av tillgänglighetsbrister:
- Alla bildelement har inte
[alt]-attribut (40%) - Element med synliga textetiketter har inte matchande maskinläsbara etiketter. (24%)
- Rubrikelementen har inte ordnats i följd i fallande ordning (9,7%)
- Vissa element saknar kopplade etikettelement. (1%)
Alltså saknas alternativtexter till minst en bild på 40% av sidorna. Vissa av bilderna kanske är dekorativa och kan ha alt="" och följa standarden.
Tipset till utvecklarna är att installera axe DevTools i Chrome eller i Firefox för de stickprov vi tenderar att göra innan vi markerar en uppgift som löst. Sen om man vill bygga in denna typ av kvalitetssäkring i sitt Continuous delivery-flöde så finns trots allt Lighthouse-testerna till Jenkins och säkert de flesta andra CI/CD-plattformar.
Vem som äger innehållet och rubrikstrukturen beror lite på. Men ett plugin till Chrome som hjälper till är HeadingsMap. Då kan man stickprova sidmallar i Optimizely som hoppar över rubriknivåer. Exempelvis på Jobba hos oss finns ett hopp från nivå 2 direkt till nivå 5.
Att man på sin sida med lediga jobb har tillgänglighetsbrister i att välja ort är kanske inte ett klockrent fall för Diskrimineringsombudsmannen, men det är olyckligt eftersom Skandia fastigheter jobbar med hållbarhet.
→ Hållbarhet på Skandia Fastigheter
Sökmotoroptimering
Som tidigare nämnts är SEO:n inte alls bra. Ifall man kör igenom hela webbplatsen med Lighthouse får man reda på att:
- Länkar har inte beskrivande text (100%)
- Sidan är blockerad för indexering (100%)
- Alla bildelement har inte
[alt]-attribut (40%) - Dokumentet har ingen metabeskrivning (14%)
- Länkarna är inte genomsökningsbara (1%)
- robots.txt är inte giltig (1%)
Inget av det här spelar någon roll innan robots.txt lagats så sökmotorer släpps fram. Efter det kommer man till detaljer att ha beskrivande alt-texter och om det finns viktiga sidor som saknar metabeskrivning.
Följs god utvecklarpraxis?
Nej, praxis följs inte enligt Googles Lighthouse. Alla undersökta sidor har webbläsarfel som loggas i konsolen och fel loggas också i Issues-panelen i Chromes verktyg för programmerare. Det är helt i sin ordning i en utvecklarmiljö men inget som hör hemma i produktion.
Hastigheten då?
Att ha synpunkter på hastighet är ibland mer nyanserat än det andra som nämnts i denna skrivelse. Undertecknad testar under extremt optimistiska förhållanden, precis som de flesta utvecklare gör under utvecklingen när de testar lokalt eller mot en testmiljö ingen annan belastar.
Jag har 950 Mbit/s fiber, med en handfull millisekunder i svarstid. Datorn är en Mac Studio med ett dussin processorkärnor och 64 Gb i arbetsminne. Det är något helt annat än våra användare som kommer med en billig Android, sittandes på ett uselt wifi under en tågresa. De har en väldigt annorlunda upplevelse.
Här kommer skillnaden mellan syntetiska tester och RUM-tester in. Tenderar besökarna att sitta på en bra uppkoppling och bra hårdvara? Ja, för Skandia fastigheter tyder CrUX-data från Chrome att besökarna har en godkänd upplevelse. Det är bra! Samtidigt säger syntetiska tester att webbplatsen är på gränsen till dålig på hastighet. Så det finns potential inom First Contentful Paint, Speedindex och Largest Contentful Paint om man värnar besökarna med sämre förutsättningar. Kanske är det de besökarna som vid optimering gör hela skillnaden för Skandia fastigheter ifall man trimmar in sin nya webbplats?
Utvecklarna av webbplatsen kanske redan känner till allt detta jag dokumenterat. Men min förhoppning är att visa på metoder för kvalitetssäkring jag själv använder i vardagen och rekommenderar andra att beakta. Kanske hittade jag någon lågt hängande frukt att åtgärda.
Ladda ner Lighthouse-data
- Tillgänglighet (.json)
- Hastighet (.json)
- SEO (.json)
- Bästa praxis (.json)
Webperf

