ChatGTP heeft de tongen los gemaakt en de nodige jaloezie en na-ijver opgeleverd. Google is bezig met een rivaal onder de naam Bard. Microsoft heeft BING Search ontwikkeld. Blake Lemoine, ingenieur bij Google werd vorig jaar ontslagen toen hij zich liet ontvallen dat Google's chatbot LaMDA bewustzijn leek te hebben. Dat was nu precies wat Google niet uit wenste te stralen.
Maar de de chatbot van Microsoft komt met opmerkingen als "Ik ben verliefd op je" of "Ik wil menselijk zijn" of "Wees alsjeblieft mijn vriend". In de NRC van 19 februari 2023 staat een opmerkelijk artikel over de eerste ervaringen met AI bij Microsoft. Kevin Roose van The New York Times had een twee uur durend gesprek met deze chatbot en na afloop verklaarde hij: "Dit is de vreemdste ervaring die ik ooit heb gehad met een stuk technologie. Het heeft me zo verontrust dat ik moeilijk kon slapen na afloop". Zijn collega Ben Thompson noemde een gesprek met Bing "de meest verrassende en mindblowing computerervaring van mijn leven".
Het probleem is dat dit soort chatbots zijn gebaseerd op algoritmes die zo zijn ontworpen en geprogrammeerd dat ze zelflerend zijn. Eenmaal geïnstalleerd heb je dus totaal geen zicht meer op hoe de kern van zo'n taalprogramma in elkaar zit. Het systeem haalt zijn informatie uit een datamassa van miljoenen teksten. Microsoft zegt dat hun systeem in de war kan raken als er vijftien vragen of meer worden gesteld en heeft vragensessies nu beperkt tot maximaal vijf vragen. Mij klinkt dat vreemd in de oren. Dus als een gesprek bestaat uit meer dan vijf vragen en antwoorden loopt het systeem het risiko te gehecht aan de vragensteller te raken?
Op de achtergrond zien we talloze risico's opdoemen. Een al te zeer op de mens lijkende chatbot kan zijn vragensteller met nepinformatie manipuleren en het bos insturen met foutieve aanwijzingen. Combineer dit met deep-video en we zullen spoedig niets of niemand meer kunnen of durven vertrouwen.
Geen opmerkingen:
Een reactie posten