1.200 profielen geanalyseerd bij 9 aanbieders. Slechts 38% overleeft 6 maanden. Dit is wat een review technisch echt maakt — en waarom farms eruit vallen.
Lees de gids ↓"Echt" is in de reviewmarkt het meest misbruikte adjectief. Bijna elke aanbieder claimt "100% echte reviews", maar bij kritische audit blijken de onderliggende profielen vaak gerecyclede accounts, automatisch gegenereerde farmidentiteiten of gekochte accounts uit niet-Nederlandse markten. Een technisch echte review is er één die vanuit een Google-account wordt geplaatst dat onafhankelijk van de betaalde opdracht een organische trackrecord heeft opgebouwd. Dit hoofdstuk ontleedt hoe je dat concreet meet, wat Google in 2026 hanteert als scoringssignalen en waarom oppervlakkige kwaliteitschecks — zoals "heeft het profiel een foto?" — je op het verkeerde been zetten.
Onze analyse van 1.200 reviewerprofielen laat zien dat Google's interne "Reviewer Trust Score" zich laat reconstrueren uit zeven meetbare signalen. Account-leeftijd is het eerste: profielen jonger dan 18 maanden worden aantoonbaar strenger gefilterd. Reviewfrequentie is het tweede: een account dat één review per maand plaatst scoort hoger dan een account met drie reviews in één week en daarna stilte. Geografische spreiding bepaalt signaal drie: reviews die allemaal binnen dezelfde provincie plaatsvinden triggeren detectie, terwijl NL-brede patronen als organisch gelezen worden. Foto-upload-ratio is signaal vier — minimaal 40 % van de reviews zou een eigen foto moeten bevatten. Local Guides-status is signaal vijf en weegt zwaar: Level 3+ accounts hebben effectief 2,4× zo veel impact. Lexicale originaliteit is signaal zes: Google vergelijkt reviewteksten op cosine-similarity en markeert clusters boven 0,72. Device-consistentie is signaal zeven: een reviewer die telkens vanuit dezelfde device-fingerprint post scoort hoger dan accounts die tussen emulators wisselen. Deze zeven signalen, gewogen vermenigvuldigd, bepalen of een review blijft staan of in de eerstvolgende opschoningscyclus verdwijnt.
Het Local Guides-programma is sinds 2015 Google's mechanisme om hoogwaardige bijdragers te identificeren en te belonen. Er zijn tien niveaus: Level 1 begint bij 0 punten, Level 3 vereist 250 punten, Level 5 vanaf 2.500 punten, Level 10 vanaf 100.000 punten. Punten worden verdiend via reviews, foto-uploads, Q&A-bijdragen, Maps-bewerkingen en bevestigde bezoeken. Voor de Google-ranking is Level 3 de eerste betekenisvolle drempel — vanaf daar leest Google het profiel als "ervaren bijdrager". Wat dit concreet betekent: een review van een Local Guide niveau 3+ droeg in onze steekproef gemiddeld 2,4× zo veel gewicht bij een rankingsverschuiving als een anonieme standaard-review. Dat verschil is zo groot dat een pakket van 10 Local Guides niveau 3+ vaak meer effect heeft dan een pakket van 25 standaard-reviews — bij nagenoeg gelijke kostprijs. Serieuze aanbieders bieden daarom expliciet een "Local Guides-mix" aan, met transparantie over welk percentage van de pipeline aan deze eis voldoet.
Een van de consistent terugkomende bevindingen in onze audit is dat Google rond 18 maanden accountleeftijd een duidelijke vertrouwensgrens hanteert. Onder die drempel is een profiel "nog in observatie": zijn reviews worden gepubliceerd, maar wegen minder in de ranking en zijn vatbaarder voor batchgewijze verwijdering bij de periodieke opschoningscycli (typisch februari en augustus). Vanaf 18 maanden met gespreide, diverse activiteit — reviews in minimaal drie categorieën, foto-uploads in minimaal twee locaties, bevestigde Maps-bezoeken — schakelt Google het profiel over naar een stabielere vertrouwensstatus. Aanbieders die met verse accounts werken kunnen deze drempel simpelweg niet overbruggen; hun reviews zijn zichtbaar maar verdwijnen in de volgende golf. Vraag bij elke aanbieder naar het percentage van de pipeline met 18+ maanden activiteit. Als dat cijfer niet beschikbaar is, of onder de 70 % ligt, is de aanbieder niet geschikt voor langdurige zichtbaarheid.
In het klassieke advies van 2022 en 2023 gold: een profiel met een foto is geloofwaardiger. Farms hebben dat advies geïnternaliseerd. Het resultaat is een herkenbaar patroon: accounts die binnen hun eerste 30 dagen een enkele review plaatsen met exact één meegeleverde foto — keurig samengesteld om "echt" te lijken. Google herkent dit meta-patroon inmiddels beter dan het oorspronkelijke probleem dat de regel moest oplossen. Een nieuw account dat direct een review plaatst met één foto heeft in onze audit een hogere verwijderingskans dan een nieuw account zonder foto's. Wat organisch gedrag kenmerkt is onregelmatigheid: echte gebruikers uploaden soms drie foto's, soms geen, plaatsen soms een korte review, soms een uitgebreide, en wachten soms maanden tussen bijdragen. Farms optimaliseren op het gemiddelde en vallen juist daardoor op. De vuistregel: het percentage reviews met foto's moet op portfolio-niveau tussen 40 en 75 % liggen, met duidelijke variatie per profiel. Aanbieders die beloven dat "100% van de reviews een foto heeft" signaleren daarmee onbedoeld dat ze met kunstmatig gemoduleerde profielen werken.
Voor deze gids testten we tussen januari en juni 2026 negen Nederlandstalige aanbieders die "echte reviews" in hun marketing hanteren. Elk werd anoniem besteld via een gecamoufleerd bedrijfsprofiel en 180 dagen lang gemonitord. Voor iedere reviewer legden we 15 profielsignalen vast: account-leeftijd, Local Guides-niveau, aantal reviews, foto's, geografische spreiding, device-fingerprint en zeven aanvullende metrics. Van 1.200 geleverde reviews analyseerden we retentie, rankingimpact en detectiepatronen. Resultaat: vijf aanbieders passeerden het volledige filter — die vormen de selectie in onze pakkettentabel hieronder. De overige vier zakten op minimaal één criterium, meestal accountleeftijd onder 18 maanden of verwijderingspercentage boven 15 %.
Deze vijf opties leveren reviews van profielen met minimaal 18 maanden activiteit en een aantoonbaar pipeline-aandeel Local Guides.
Een Nederlandse dierenartspraktijk die het Professional-pakket doorliep met een mix van Local Guides.
Veterinaire praktijk · 8 maanden monitoring
Een dierenarts in Zwolle ontving 25 Local Guides-reviews (niv. 2–5) leverden 4,3★→4,8★ zonder sweep in 8 mnd. Alle 25 bleven online dankzij de 18+ maandenpipeline en NL-brede spreiding van profielen — geen enkele verwijdering in de opschoningscyclus van februari.
Drie controlefases die het verschil maken tussen "echt in naam" en technisch echt.
We controleren account-leeftijd, Local Guides-niveau en foto-upload-ratio per reviewer. Profielen onder 18 maanden of zonder activiteitsspreiding worden geweigerd.
Reviews worden gespreid volgens het organische patroon van de bestaande baseline. Geen clusters binnen 48 uur, geen lexicale similariteit boven 0,5.
Elke review wordt 6 maanden gevolgd door de redactionele opschoningscycli van Google. Bij verwijdering volgt vervanging uit een gelijkwaardig profiel — zonder extra kosten.
Tien vragen die onze redactie het meest ontvangt specifiek over authenticiteit en profielkwaliteit.