In een artikel in de NRC van 27 februari jl doet Vincent Icke tamelijk schamper over AI. Hij schrijft: "Als AI iets oplevert, is meestal niet te achterhalen hoe die uitkomst is verkregen. De betrouwbaarheid van dat resultaat is dus nauwelijks te bepalen." Op zich is dit juist, ik stelde ChatGTP de vraag op welke bronnen het antwoord op mijn vraag was gebaseerd en kreeg prompt de reactie dat de chatbot geen bronnen raadpleegde maar het antwoord samenstelde uit de data waarmee het systeem gevoed was. De basis voor deze vorm van AI bestaat uit algoritmes gebaseerd op Large Language Models in combinatie met ontzagwekkende hoeveelheid data die aan het systeem worden gevoed. Die LLM's kijken naar woorden, de woorden waarmee ze doorgaans gecombineerd worden, hun positie in de zin als grammatikale constructie et cetera. Buitengewoon knap dat een chatbot nu in staat is complete zinnen te maken als waren ze bedacht, bedoeld en uitgesproken door mensen.
Wat de data betreft kunnen we kort zijn: bagger in betekent bagger uit. Ik heb ChatGTP aardig wat keren uitgeprobeerd en kwam tot verrassende resultaten. Bij één vraag kreeg ik een evident verkeerd antwoord en toen ik het systeem daar op wees werd ik prompt in het gelijk gesteld en kreeg ik een gecorrigeerd antwoord. Bij al mijn andere v ragen kreeg ik voor mijn gevoel en naar mijn beste weten correcte antwoorden, binnen de korst mogelijke keren. Waar Icke zijn best doet de prestaties van ChatGTP te bagatelliseren, ben ik daar veel positiever over. Maar iedere gebruiker moet zich realiseren dat hij of zij niet met een mens in gesprek is en dat net als in een gesprek met mensen, ook in de uitwisseling met een machine een kritische grondhouding noodzakelijk blijft.
Zelfs wanneer ik een menselijke gesprekspartner voor betrouwbaar en integer houd, betekent dat niet dat ik ieder antwoord dat ik krijg voor waar zal houden. Ik zal dat antwoord altijd toetsen aan wat ik zelf van het onderwerp weet of wat ik er over kan vinden. Dat Icke zich verzet tegen de term intelligentie kan ik wel billijken. Misschien moeten we het vooral over machine learning hebben, dat lijkt mij een toepasselijker naam. En hij wijst terecht op het feit dat we voor AI niet bang hoeven te zijn, we kunnen die angst en vrees beter bewaren voor de baas van AI, de naar altijd naar meer rijkdom, weelde en macht strevende mens.
De wetenschapsbijlage van de NRC van afgelopen weekend was grotendeels gewijd aan AI en dan met name aan de enorme bijdrage die AI kan leveren aan talloze onderzoeksgebieden. Ik noem er hier maar een paar: het voorspellen van natuurrampen, het ontwikkelen van zogeheten catbonds waarmee men een verzekering tegen de gevolgen van natuurrampen kan opzetten, het ontwikkelen van tegenintuïtieve oplossingen voor problemen in de kwantummechanica, schier eindeloze toepassingen in de medische wetenschap, vrijwel ongelimiteerde toepassingsmogelijkheden in fundamenteel onderzoek, zoals bijvoorbeeld het onderzoek naar de wijze waarop eiwitten zich in het lichaam vouwen, en zo voort. Noem het machine learning of artificial intelligence, mij is het om het even (de eerste term is accurater) maar de mogelijkheden ervan zijn werkelijk eindeloos en ongelimiteerd. Fascinerend dus maar het blijft oppassen geboden: als wij geen inzicht krijgen in de onderliggende algoritmen, systemen en modellen heeft die fascinatie altijd een duistere kant die ons wel eens compleet kan verrassen. Onaangenaam verrassen en wedden dat het dan te laat is?
Geen opmerkingen:
Een reactie posten