Her i 2017 er der ikke længere nogen undskyldning for ikke at have en mobilvenlig side. Men skulle det være sådan at dine hjemmeside fortsat ikke er responsiv, eller du ikke har oprettet en decideret mobilversion af din hjemmeside vil dette være det første der skal gøres. Mobile enheder foretager stadig en voksende del af det totale antal søgninger og er ofte den dominerende type trafik på en hjemmeside. Der er andre ting der skal tages særligt hensyn til når det kommer til mobilvenlighed, men det kommer vi ind på senere.
Begge disse skal ses som værktøjer der hjælper søgemaskinerne med at navigere på din hjemmeside. Robots.txt filen fortæller de crawlere, som eksempelvis Google sender ud, hvor de må gå hen og ikke må gå hen på din hjemmeside.
En robots.txt fil skal sættes op helt korrekt, ellers risikere du at forvolde stor skade på din side og dens visning på de forskellige søgemaskiner. Hvis du ønsker at opsætte denne selv anbefaler vi at du læser godt op på det først.
Et sitemap skal ses som et form for kort til de selvsamme crawlere fra søgemaskinerne. Selvom disse vil crawle din hjemmeside uanset, hjælper et sitemap med at fremhæve hvad du synes er vigtigt på din side og strukturen for den.
Sitemaps kan dannes af flere forskellige gratis værktøjer, afhængig af hvor stor din hjemmeside er. Der er også en række af plugins/modules til de CMS systemer der findes – Drupal eller WordPress eksempelvis. Herefter skal de lægges op på din side, hvis du ikke bruger et plugin/module der selv gøre dette, du kan også overføre dem til Google direkte gennem Google Search Console.
Hvis din hjemmeside indeholder en del billeder på eksempelvis produkter kan det også være relevant at lave et image sitemap. Således øger du den potentielle trafik fra billedsøgninger.
En meget almindelig problematik som plager adskillige hjemmesider er duplicate content. Et problem der ofte ses fordi der er et skel mellem hvad Google og designere af hjemmesider ser som god skik. Duplicate content, er en betegnelse for indhold der går igen på tværs af unikke URL’er. Problemet er især tilstede inden for e-commerce.
Dette ses ofte fordi man har forsøgt at tilgodese en kunde ved at levere al tænkelig information til en kunde på hver eneste side. Det ses tit i webshops at der er beskrivelse for både produkt og producent. Men da denne producent typisk laver mere end et produkt, så findes den samme tekst på flere sider. Ydermere er producent tekster ofte længere end produktbeskrivelser. I værste tilfælde er der kun producent beskrivelser på produktsiderne, som går igen på hvert produkt.
I tilfælde hvor Google mener at indholdet er så ens at det bliver markeret som duplicate content vil Google nogle gange kun indeksere den ene. Så har man to jakker med samme beskrivelse, udover at der står sommer på den ene og vinter på den anden, kan du risikere at kun den ene vil blive indekseret. På den måde kan du glip af utrolig vigtig trafik på grund af duplicate content fejl.
Google Search Console vil kunne bruges til at påpege duplicate content. Tag udgangspunkt i denne information og ret siderne igennem hurtigst muligt.
Links
Der findes en række værktøjer der kan crawle din hjemmeside og give dig en rapport omkring hvordan din hjemmeside linker til andre, bliver linket til og linker internt. Det er altid en god ide at bruge et af disse værktøjer en gang om måneden for at finde eventuelle fejl i din linking.
Hvis din hjemmeside
linker til eksterne partnere og dette giver en fejl kan du se om modtager hjemmesiden har ændret på deres hjemmeside struktur og genfinde den side. Eller hvis siden ikke findes mere kan du finde en ny ressource og linke til den.
Hvis din hjemmeside bliver linket til fra en anden side, og du laver en ændring der gør at den side der blev linket til ikke befinder sig samme sted kan du selv sætte en redirect op. Så når andre klikker på det link, så bliver de korrekt videresendt. Samtidigt kan du orientere den anden sideejer.
Det sidste, den interne linking, skal altid fungere. Hvis du har elementer af din egen side der linker til andre ting på din side som ikke findes er dette et potentielt stort problem af to årsager. Den ene er at Google ser det som en svaghed i din hjemmesidestruktur, hvilket det også er, det andet er at det forringer brugeroplevelsen. Ret derfor disse hurtigst muligt.
Billedoptimering
Billedoptimering er vigtigt af flere forskellige årsager og skal laves på flere forskellige niveauer. For det første er det altid en god ide at have alt-tekst til alle ens billeder. Alt-tekst skal ses som beskrivende tekst for ens billeder. De hjælper Google og andre søgemaskiner med at afgøre hvad der er på billederne og hvordan de spiller sammen med indholdet på resten af siden. Det gør desuden billederne langt mere attraktive for søgemaskiner at vise i deres billedsøgninger. Alt-tekst kan for det meste tilføjes gennem det CMS system man benytter eller direkte i ens HTML editor.
En anden del af billedoptimering er komprimering af billeder. Her er mange under den misforståelse at komprimering ødelægger billedkvaliteten af ens billeder og kunder vil blive mødt af pixelerede versioner af ens ellers normalt flotte billeder. Men dette er langt fra sandt. De fleste billeder kan klare en komprimering ned til en 70% hvis de er jpg. Samtidigt er der en kæmpe besparelse i hvor meget de billeder, som bevarer en god kvalitet, fylder. Jo mindre de fylder jo hurtigere loader siden. Specielt for webshops med en masse produktbilleder er det relevant at kigge på komprimering af billeder. Dette gør sig endnu mere gældende når man tænker på hvor stor en del af ens kundebase er på mobiler. Et hvert sekund der bliver taget af loadtiden på mobiler jo bedre. Dette skyldes naturligvis at kunderne i så fald får en bedre oplevelse, men også at Google går over til at prioritere ens speedscore for mobiler over ens desktop speedscore.
Til at udføre billedoptimeringen kan enten Adobe Photoshop med deres save for web funktion benyttes men der findes også en lang række gratis værktøjer der hjælper dig.
Desuden er der mange af disse der gemmer dine filer som filtypen progressiv jpg. En slags JPG der egner sig til at loade på langsomme forbindelser hvor det er vigtigt at vise der faktisk sker noget og hjemmesiden er i gang med at loade.
Ressource optimering
Egentlig er billedoptimering også inde under ressource optimering, men vi følte det var nødvendigt at adskille da billeder typisk er de største skurke når det kommer til lange load tider. Men de andre ressourcer, HTML, CSS og JavaScript kan også optimeres. Eksempelvis kan JavaScript minifies for at spare en smule plads. Hvis du tænker det lyder besværligt kan vi berolige dig. Google PageSpeed Insights kan her hjælpe dig. Når du foretager en test af din hjemmeside gør den det nemlig muligt at downloade optimeret ressourcer. Således, får du uden besvær, downloadet ressourcer der er optimeret til fart.
Det skal dog siges der er et download limit. Så er der for meget der skal optimeres kan den ikke downloade alle de optimerede ressourcer. Derfor kan det være smart at optimere billederne først så de ikke tager del af den quota.
Meta schema
Meta schema er en fælles standard for hvordan indhold på en hjemmeside kan karakteriseres og defineres. Det bruges til at beskrive hvad en side handler om. Når meta schema bruges på en side kan dataen nemmere vises for søgende, fordi det er defineret ud fra en fælles standard. Denne slags meta data kan også bruges til PLA og er derfor ikke kun vigtig for de organiske søgninger, men for flere elementer i ens online marketing strategi.
Meta schema er forholdsvis nem at implementere. Ønsker man at gøre det gennem et CMS er der mange plugins/moduler at bruge til dette.
Det er også værd at bemærke at opmærksomheden omkring meta schema er voksende men er endnu ikke slået igennem. Derfor er der her mulighed for at være en af dem der kommer først til møllen.