Waarom AI-chatbots dingen bedenken? – tweakers

Net zoals mensen zichzelf wel eens googlen, kon ik het niet laten om mezelf en collega’s te ‘gpt’en’. ChatGPT, Bing, Bard en andere taalmodellen zijn geen feitenmachines, maar toch kwamen ik dingen te weten die opvallend waren. Een chatbot op basis van GPT-3 vertelde dat collega Jurian, bekend van recensies over games en de podcast, en ik, beiden een filmhuis hadden en filmprijzen hadden gewonnen met ons werk

.

GPT-4 zou beter moeten zijn en hoewel ChatGPT met die versie mij geen prijzen toekende, wist dat wel te vertellen dat Jurian ondertussen al vijf jaar bij een ander bedrijf aan de slag was gegaan als ‘contentstrateeg’. Over die carrière had hij blijkbaar nooit iemand verteld, of het was niet waar.

Wie werkt met chatbots, zal hier vaak tegenaan lopen. De GPT-gebaseerde generatoren bepalen om de haverklap feiten, omstandigheden van mensen. Het is zeker geen encyclopedie; het is een taalmodel dat probeert antwoorden te volgen door te berekenen wat het meest logische volgende woord is op basis van de context. Maar waarom verzint hij dan dingen? En is daar iets aan te doen? Het is tijd om te kijken naar een van de grote schaduwzijden van AI-generatoren, namelijk dat je er niet op kunt vertrouwen wat ze zeggen.

credit :Source link

We will be happy to hear your thoughts

Leave a reply

12game.shop
Logo