De evoluerende relatie tussen AI LLM's, zoekmachines en SXO

In dit artikel nodig ik je uit om een ​​overzicht te ontdekken van de evolutie van zoekmachines dankzij chatbots. U zult ook zien welke voordelen dit gebruikers oplevert in termen van SXO voor de doeleinden, functies, gegevensbronnen, interacties, outputs, nauwkeurigheid en betrouwbaarheid van de huidige tools. 

Ontwerp van Freepik 

Laten we eerst enkele concepten definiëren om dit artikel gemakkelijker leesbaar te maken:

  • de zoekmachines zijn softwareprogramma's waarmee u de informatie die u online zoekt, kunt vinden met behulp van trefwoorden of zinsdelen.
  • AI LLM's of in het Frans grote AI-taalmodellen (ook wel genoemd chatbots) zijn een soort kunstmatige-intelligentieprogramma dat onder meer tekst kan herkennen en genereren.
  • Le SXO kan worden gedefinieerd als het huwelijk tussen de SEO (Zoekmachineoptimalisatie) enUX (Gebruikerservaring). Daarom combineert dit concept zoekmachineoptimalisatie met strategieën om de gebruikerservaring te verbeteren.

 

Wat zijn de doelstellingen en functies van deze tools?

Zoekmachines:

  • zijn ontworpen voor het verkennen, analyseren, indexeren en herstellen van informatie die van internet is opgehaald.
  • links bieden die relevant zijn voor de zoekopdracht van een gebruiker naar webpagina's, documenten, afbeeldingen, video's, enz.

De belangrijkste AI-taalmodellen:

  • zijn ontworpen om mensachtige tekst te genereren op basis van de gegevens die ze ontvangen.
  • beantwoord vragen.
  • inhoud schrijven.
  • suggesties kan doen. 
  • helpen taken uit te voeren.
  • doen geen onderzoek op internet naar de oorsprong van hun ontwerpen.
  • zijn Populaire LLM-aanbieders en -modellen zoals: 
    • OpenAI (GPT-3.5/4 Turbo) – heeft toegang tot internet, maar alleen voor de Plus- of Enterprise-versie van GPT-4.
    • Antropisch (Claude Instant EN Claude 2) – heeft geen toegang tot internet.
    • Meta (Llama 2 70b) – heeft geen toegang tot internet.
    • Google (PaLM 2) – heeft toegang tot internet.

 

Waar komen de gegevens voor deze tools vandaan en wat zijn hun bronnen?

Zoekmachines:

  • voortdurend het internet doorzoeken en indexeren.
  • beschikken over de meest recente informatie over een onderwerp, op voorwaarde dat de inhoud doorzoekbaar en geïndexeerd is.

De belangrijkste taalkundige modellen van AI:

  • worden getraind op een grote dataset.
  • vertrouwen op de gegevens waarop ze het laatst zijn getraind.
  • hebben geen realtime informatie als ze geen toegang tot internet hebben.
  • worden niet voortdurend getraind op nieuwe datasets.

 

Wat zijn de mogelijke interacties met deze tools?

Zoekmachines:

  • voornamelijk bieden eenzijdige interactie : u voert een zoekopdracht in en de zoekmachine biedt u relevante links naar inhoud die mogelijk aan uw informatiebehoeften voldoet, en nu met gespreksresultaten van Google en Bing.

De belangrijkste taalkundige modellen van AI:

  • zijn ontworpen voor meer conversatie-interacties.
  • kan een heen-en-weer-dialoog aangaan. 
  • kan tekst genereren op basis van context.

 

Wat krijgen we als output van deze software?

Zoekmachines:

  • links of verwijzingen naar externe bronnen bevatten. Gebruikers moeten op de bronnen klikken en deze lezen om de specifieke antwoorden te vinden die ze zoeken.
  • présentent actuelere, beter gecontextualiseerde, beter geclassificeerde resultaten, evenals betere identificatie en filtering van spam. Kortom, we vinden een completere, meer informatieve en meer gepersonaliseerde zoekervaring sinds:
    • SGE (Search Generative Experience) en de integratie van een uitgebreid taalmodel (LLM).
    • Bing met de nieuwe generatie OpenAI (nieuwste versie van Open AI's ChatGPT 4).

De belangrijkste taalkundige modellen van AI:

  • geef gegenereerde tekst als antwoord en zelfs afbeeldingen, geluiden (woorden en/of muziekinstrumenten).
  • een consistent, voor mensen leesbaar formaat presenteren.
  • een kwaliteit hebben die twijfelachtig kan zijn en die sterk afhankelijk is van de instructies die de gebruiker geeft (prompt).

 

Hoe betrouwbaar en nauwkeurig zijn de tools? 

Zoekmachines:

  • bieden directe links naar bronnen, zodat gebruikers de juistheid van informatie kunnen verifiëren.
  • een ordening en zichtbaarheid van de resultaten presenteren die kunnen worden beïnvloed door verschillende SXO-algoritmen en -strategieën.
  • sont met LLM's completere en informatievere antwoorden kunnen geven op de zoekopdrachten van hun gebruikers. Vooruitgang op dit gebied zou kunnen leiden tot een verschuiving van het marktaandeel naar zoekmachines, mogelijk gemaakt door de beste van de grote AI-taalmodellen. Bing blijft echter nog steeds ver achter op Google.

De belangrijkste taalkundige modellen van AI:

  • heden des risico op onnauwkeurigheden en fouten in de antwoorden ; vooral als ze niet zijn getraind op basis van recente gegevens.
  • kunnen worden misleid door desinformatie en/of propaganda.
  • stelt een implementatie voor die kostbaar kan zijn in termen van berekeningen.
  • begrijpen mogelijk niet de context van webpagina's en die van mensen (vandaar recent onderzoek rond Google's oneindige aandacht: zie het artikel).

 

Conclusie

LLM's

LLM's hebben nog geen significante impact gehad op de zoekmachinemarkt. Dit wordt niet bedreigd door LLM-technologieën, maar het zou het mogelijk kunnen destabiliseren. Google blijft de wereldwijde zoekmachinemarkt domineren (met 90%). De belangrijkste taalmodellen van kunstmatige intelligentie zullen in de toekomst echter een revolutie teweegbrengen in de zoekmachine-industrie. Uiteindelijk zijn deze twee technologieën sindsdien duidelijk complementair grote AI-taalmodellen zullen altijd dorsten naar nieuwe informatie, om efficiënter te kunnen zijn. Dit is precies het doel van zoekmachines om informatie aan hun LLM's te kunnen verstrekken. 

  • In termen van bijgewerkte informatie:
    • Zoekmachines bieden toegang tot informatie.
    • LLM's gebruiken actuele informatie als ze daar toegang toe hebben.
  • Qua diepte en breedte:
    • Zoekmachines bieden een reeks bronnen, maar sommige LLM's zoals PALM2 en Google Gemini bieden bronnen waar ze hun informatie vandaan halen. 
    • LLM's bieden snelle antwoorden voor diepgaand onderzoek, maar ook verschillende standpunten over een specifiek onderwerp.
  • Qua gebruik: 
    • Zoekmachines zijn essentieel voor onderzoek, nieuws en het ontdekken van informatie.
    • LLM's zijn perfect voor conversatie-AI, codering, bijles en het genereren van inhoud.

Grote taalkundige modellen van kunstmatige intelligentie worden sindsdien door zoekmachines gebruikt om hun resultaten te verbeteren de toekomst van onderzoek is zeker hybride. Echter, het is zeer onwaarschijnlijk dat ze zoekmachines zullen vervangen. 

De SXO

En de SXO in dit alles? Voor mij komt dit overeen met het vermogen om te begrijpen hoe zoekmachines de belangrijkste taalmodellen van kunstmatige intelligentie in hun basisalgoritmen integreren, om zo hun zoekresultaten beter te contextualiseren. Dit betekent dat we als SEO steeds meer prioriteit moeten geven aan de gebruikerservaring rekening houdend met de reis van de gebruiker vanaf de zoekmachine. Het is ook belangrijk om beter te worden onderzoeksintenties integreren in elke fase van je onderzoek, of het nu informatief, navigatie, commercieel of transactioneel is. 

 

 

Rossitza Mavreau, Lead Traffic Manager SEO SEA Analytics bij UX-Republic