Challenge us
menu

SEO Roundup mei 2021

Je bekijkt op dit moment een oudere story. De inhoud hiervan kan verouderd zijn. Bekijk hier onze laatste stories
SEO roundup

Ook de maand mei zat op het gebied van SEO weer vol met updates. In deze Roundup nemen onze SEO specialisten je mee door de meest interessante ontwikkelingen van de afgelopen maand.

In deze roundup vind je de volgende ontwikkelingen op SEO-gebied:

 

Google geeft een voorproefje van MUM, de nieuwe technologie die 1000x krachtiger is dan BERT

Google heeft een nieuwe technologie geïntroduceerd genaamd Multitask Unified Model (MUM). Net als bij BERT is dit model gebouwd op een transformator architectuur, maar is tot wel 1000 keer krachtiger. Het model kan multitasken om informatie voor gebruikers op nieuwe manieren te verbinden. Google voert momenteel interne proefprogramma's uit met MUM, maar er is nog geen publicatiedatum aangekondigd.

Een van de onderscheidende kenmerken van MUM is dat het taken tegelijkertijd kan uitvoeren. In feite is het model getraind in 75 talen en talrijke taken tegelijk. Dit stelt MUM in staat om een ​​vollediger begrip te krijgen van informatie en de wereld in het algemeen, heeft Google aangegeven in een blogpost.

Enkele voorbeelden van de taken die MUM tegelijkertijd kan uitvoeren:

  • Verwerft grondige kennis van de wereld.
  • Begrijpt en genereert taal.
  • Traint in 75 talen.
  • Begrijpt meerdere modaliteiten (waardoor het meerdere vormen van informatie kan begrijpen, zoals afbeeldingen, tekst en video).

Bron

 

Google verwijdert het algemene filter voor uitgebreide resultaten uit het prestatierapport van Search Console

Google heeft aangekondigd dat het de generieke filter met rijke resultaten verwijdert in het gedeelte voor zoekweergave in het prestatierapport van Search Console. Dit betekent dat je niet langer in zijn totaliteit kunt zien hoe de uitgebreide resultaten presteren.

Wanneer wordt het verwijderd? 
Google heeft aangekondigd dat dit filter op 1 augustus 2021 verdwijnt, zowel in de Google Search Console-interface als in de API. Google heeft aangegeven dat het wordt verwijderd omdat Google al rapporteert in de individuele uitgebreide resultaten. Daardoor realiseert Google zich dat  het groeperen van gegevens voor uitgebreide resultaten niet ideaal is, omdat elk type een significant ander gedrag kan hebben. Volgens Google heeft dit geen echt verlies in de rapportage van Google. 

Na 1 augustus zie je niet langer een zoekfilter voor 'uitgebreide resultaten' en kan je over dat generieke type rapporteren. In plaats daarvan zie je alleen specifieke typen uitgebreide resultaten waarvoor jouw site in aanmerking komt onder het zoekfilter.

Geen wijzigingen in de rangschikking
Google heeft duidelijk aangegeven dat deze rapportage verandering geen invloed zal hebben op de rankings of het verkeer. 

Daarnaast heeft Google aangegeven dat ze meer uitgebreide resultaattypen blijven toevoegen en over die typen rapporteren in Search Console.  

Bron

 

Google Page Experience update komt (uiteindelijk) ook naar desktop pagina's

Jeffrey Jose van Google heeft aangekondigd dat de Google Page Experience Update uiteindelijk naar desktop pagina's zal komen en niet alleen naar mobiele pagina's. Hierbij zullen er zoals altijd bijgewerkte richtlijnen, documentatie en tools worden aangeboden. 

Half juni wordt dus de Google Page Experience update gelanceerd voor mobiele pagina’s en in de toekomst zal Google dit toevoegen aan desktop pagina's. 

Bron

 

Schema.org lanceert zijn schema-opmaak-validatietool

Enkele maanden nadat Google heeft aangegeven dat het de Google-tool voor het testen van gestructureerde gegevens zou afschaffen, heeft Schema.org afgelopen mei zijn tool voor het valideren van schema marketingen gelanceerd op validator.schema.org.

De markering validator op schema.org helpt  bij het valideren van gestructureerde gegevens op sites die voor algemene doeleinden worden gebruikt, buiten de Google-tool voor het testen van uitgebreide resultaten.

Verschillen tussen Google en Schema.org
De tool voor het testen van uitgebreide resultaten van Google is ontworpen om alleen het door Google ondersteunde gestructureerde gegevensschema te laten zien. Maar de Schema.org-markupvalidator is meer voor "algemene doeleinden" en bedoelt om te helpen bij het debuggen van veel meer gestructureerde gegevenstypen, veel verder dan die door Google worden ondersteund.

Tool voor Rich results
De tool voor uitgebreide resultaten staat op de eigen site van Google en is ontworpen en onderhouden met als doel om uitgebreide resultaten van Google Zoeken te laten zien. Google heeft aangegeven dat als gebruikers de opmaak willen testen voor uitgebreide resultaattypen van Google Zoeken, zij het beste de Rich Results-test kunnen blijven gebruiken.

Tool voor het testen van gestructureerde gegevens 
Google zal de testtool voor gestructureerde gegevens echter migreren van het eigen domein van Google naar schema.org. Om open standaarden en ontwikkelervaring beter te ondersteunen richt Google de tool voor het testen van gestructureerde gegevens opnieuw in en migreerde deze in april naar een nieuw domein voor het schema.org-community. 

Bron

 

Google publiceert uitgebreid artikel over crawl budget

Er is door Google nooit veel openbaar gepubliceerd over crawl budget. Daar is nu verandering in gekomen met een uitgebreid artikel over crawl budget op het Google Search Central blog.

Hoewel crawl budget al lange tijd een belangrijk aspect van SEO is bij Adwise, waren exacte richtlijnen of uitleg vanuit Google eigenlijk al die tijd afwezig. Het feit dat Google hier nu zelf mee komt, benadrukt het belang van crawl budget optimalisatie eens te meer. 

 Google laat weten dat het Crawl budget wordt gebaseerd op twee elementen:

  • Crawl capacity;
  • Crawl demand.

Wat bepaalt de crawl capacity?
Met de crawl capaciteit wordt het maximale aantal URL’s, dat googlebot tegelijkertijd en parallel aan elkaar, kan crawlen. Deze crawl capaciteit limiet kan omhoog en omlaag gaan op basis van:

  1. Crawl gezondheid: Als de website een bepaalde periode snel(ler) reageert, gaat de crawl limiet omhoog. Er kunnen dan meer connecties gebruikt worden om te crawlen. Als de website tra(a)ger is geworden of omdat er veel server fouten optreden, dan gaat de limiet omlaag, en zal googlebot minder crawlen.
  2. Door de website-eigenaar, in Search Console,  ingestelde limiet: Website-eigenaren kunnen het crawlen van googlebot verminderen door limieten in te stellen. Dit kan alleen met het verlagen van de crawl limiet en niet met het verhogen.
  3. Google’s eigen crawl limieten: Hoewel Google veel resources heeft om te crawlen, kan het zijn dat ze zelf tegen limieten aan lopen. Het web wordt almaar groter, dus de kans dat googlebot tegen limieten aan loopt, lijkt daarmee ook groter te worden.

Hoe wordt crawl demand van een website bepaald?

  1. De waargenomen voorraad aan URL’s: Zonder begeleiding zal Google proberen alle URL’s van een gegeven website te crawlen. Dit resulteert vaak in een enorm aantal URL’s zonder toegevoegde waarde. Bijvoorbeeld omdat ze URL’s overeenkomen (duplicate content) of omdat de URL’s dynamisch zijn (bijv. bij filters en facetten). Dit zorgt ervoor dat googlebot een enorme hoeveelheid URL’s onnodig moet crawlen.
  2. De populariteit van URL’s: Hoe populairder een URL, hoe vaker Google hem zal crawlen. Bij Adwise drukken we populariteit voornamelijk uit in backlinks. Dus plat gezegd kun je stellen; hoe meer backlinks, hoe vaker Google een gegeven URL crawlt.
  3. De versheid/frisheid van (content op) URL’s: Google wil URL’s, waarvan ze weten dat de content snel en vaak update, vaker crawlen.

Bron

 

Geïnspireerd geraakt?

Wil je meer weten over een succesvolle SEO strategie voor jouw organisatie? Shari, SEO Marketeer, helpt je graag!

Neem contact op

Don't miss out!

Ontvang inspiratie, trends, stories, events en veel meer direct in je mailbox..

Emerce100 #1-3 Digital agency '21 '22 '23

#1-3 Digital agency '21 '22 '23