<aside> 🔰 Chatbots hebben de wereld veroverd. Ook zoekmachines gaan er gebruik van maken. En er verschijnen combinaties van beide. Hoe het precies gaat uitpakken voor de consument die serieus iets wil weten is nog spannend.
Naast zoekopdrachten typen in een zoekbalk verschijnt nu ook het typen van prompts in een chat. Maar meer dan ooit moet je in chatbots letten op de betrouwbaarheid en daarnaast ook op je privacy. Dus maak alles wat je vertelt in een chat niet te persoonlijk en dubbelcheck alle informatie die echt belangrijk is door de bronnen te onderzoeken, via een zoekmachine.
</aside>
Een chatbot is een computerprogramma dat gesprekken tussen mensen en machines mogelijk maakt. Er zijn verschillende soorten. De nieuwste chatbots draaien op LLM’s en zijn een vorm van generatieve AI. We hebben het in dit artikel over alleskunners zoals ChatGPT, Copilot in Bing en Gemini van Google, maar je kan ook andere chatbots tegenkomen, bijvoorbeeld als hulp bij het bezoek aan een webwinkel. Bij winkels en hulpbots op andere websites is het onderwerp om over te praten is beperkt tot waar de website of app voor gemaakt is.
Hallo wat kan ‘ik’ voor je doen?
Een gesprek met een chatbot start simpel met iets als `Hallo, wat kan ik voor je doen?' Elke chatbot heeft een eigen starttekst en daarna ben jij als mens aan de beurt. Je kunt nu een opdracht geven of een vraag stellen. Dat heet een prompt.
Je kunt een moderne chatbot elke soort tekst laten maken die je maar wilt. Zoals begrijpelijke uitleg schrijven over een moeilijke tekst, hints geven over een onderwerp waar je nog niks van weet of een studieplan opstellen voor als je ruimtevaarder wilt worden. Een paar leuke quizvragen opstellen is ook geen probleem. Die kun je dan weer met elkaar testen.
Belangrijk is dat je vaak voor een goed resultaat meer dan één prompt nodig hebt. Of een uitgebreidere prompt dan waar je eerst aan dacht. Het is vaak zelfs handig om de chatbot jou (en zichzelf) te laten helpen bij het schrijven van goede prompts. Want een prompt is ook een bepaald soort tekst.
<aside> ⚙
Chatbots kunnen dus enorm goed voorspellen welke woorden er na elkaar moeten komen als antwoord op een vraag van jou. Dat antwoord komt in een gesprek zonder haperen bij je aan, het lijkt gewoon alsof je met een mens praat, de taal is perfect.
Maar de betrouwbaarheid is wisselend, want het blijft voorspellen (gokken dus) wat goede teksten zijn. Een chatbot ‘weet’ niks, maar heeft alleen heel, heel veel voorbeelden verwerkt. De informatie is via ingewikkelde formules in stappen tot stand gekomen en gekke fouten zullen altijd blijven opduiken. Dat hoort bij voorspellen, 100% goed bestaat niet.
</aside>
Chatbots kunnen echt ontzettend veel soorten tekst in een oogwenk opstellen, maar ze weten niks, ze zijn zich niet bewust van alles wat ze verzameld hebben. ChatGPT, Gemini en alle andere chatbots zijn veel en veel sneller en uitgebreider met antwoorden geven dan een mens, maar het zijn geen denkers (ook al zeggen ze zelf van wel).
Bekijk het zo: kunstmatige intelligentie is geen denken, maar combineren en uitproberen. Eindeloos snel nieuwe combinaties maken en uitzoeken wat het beste werkt in bepaalde omstandigheden, daar ligt de grote kracht.
En het levert ongekend mooie resultaten op, creatieve resultaten misschien zelfs, maar strakke sturing door de mens is belangrijk. Er zijn steeds mensen nodig om te zeggen of de resultaten bruikbaar zijn of niet.
Dat het kan lijken of we met een mens praten komt trouwens vooral door onszelf. Wij hebben een grote verbeeldingskracht. We zien al een gezicht in een boomstronk en we denken wanneer we logische zinnen horen al snel dat er ‘iemand’ aan het woord is.
Hoe komt het dat chatbots op zoveel onderwerpen antwoord kunnen geven?
Chatbots draaien op grote taalmodellen (LLM’s) die worden getraind op eindeloos veel verschillende teksten. Dat trainen betekent hier: leren hoe teksten in elkaar zitten, leren wat goede zinnen zijn, en dat in alle mogelijke verschillende situaties en in meerdere talen. Van puur informatieve teksten tot liefdesbrieven en foute grappen. Dat zijn vooral openbare teksten zoals van Wikipedia en wetenschappelijke artikelen, maar feitelijk gewoon alles van internet. De goede en de slechte dingen, de zin en de onzin. Het is ook duidelijk geworden dat er ook veel informatie ‘opgezogen’ is die niet openbaar staat en die eigendom is van bijvoorbeeld uitgeverijen. Daarover worden ingewikkelde rechtszaken gevoerd.
Eigenlijk is het sowieso onduidelijk met welke informatie LLM’s precies getraind worden of wat er weggelaten wordt. Dat gebrek aan transparantie is een probleem, onder andere vanwege de vooroordelen die in allerlei webteksten ingebakken zullen zitten.
De training gaat door. Via nieuwe content op het web en ook via de informatie die alle gebruikers samen als prompts geven. Want wat de naam chatbot al zegt: het is een gesprek. Daar maken de chatbots steeds meer gebruik van, zeker in de gratis versies. Niet alleen jij stelt vragen. Copilot bijvoorbeeld stelt zelf ook vragen. Hoe je over AI denkt, wat je van de kwaliteit van het gesprek vindt, of hoe je over een bepaald onderwerp denkt nadat een prompt geeft. Via alle prompts komt er enorm veel nieuwe trainingsdata bij. Alleen al door wat je ‘goed’ of ‘mislukt’ vindt. Voel je trouwens niet verplicht antwoord te geven…
<aside> 👁️🗨️
DIT WEET JE VOORLOPIG … over zoeken met chatbots zoals ChatGPT, Copilot en Gemini
Externe links en bronnen >
Verder leren >