November vorig jaar vond er een congres plaats onder de titel Debunking the great AI lie. Jeremy Kahn had bij die gelegenheid een dubbelinterview met Gary Marcus (1970) en de vader van de moderne linguistiek, de door mij zo bewonderde Noam Chomsky (1928). Zelf was ik in zekere zin enthousiast over zo'n systeem als GTP maar ik realiseerde me al snel dat je enorm voorzichtig moet zijn met dit soort systemen. Sinds het verschijnen van GTP heb ik verscheidene posts aan dit onderwerp gewijd waarbij het steeds vaker ging over de risico's en het onderliggende verdienmodel. Heel in het kort geef ik hier een samenvatting van voornoemd dubbelinterview en u kunt het geheel zelf bekijken in de afsluitende video.
NC: het systeem is te sterk om nog gecorrigeerd te worden. Vergelijk het met het herzien van het periodiek systeem van elementen; AI ontwerpt een nieuw systeem met alle bestaande maar ook met niet-denkbare elementen en maakt vervolgens geen onderscheid meer tussen die beide soorten elementen. Wat is dat voor een systeem dat niet meer onderscheidt tussen bestaand en onmogelijk?
GM: deze systemen begrijpen niet de relatie tussen de volgorde van woorden en hun onderliggende betekenis terwijl dat toch echt de basis van taal is.
NC: wetenschap onderzoekt hoe zaken in elkaar steken en is niet op zoek naar iets handigs of nuttigs. Geen kwaad woord over de verworvenheden van engineering, er zijn prachtige, zinvolle producten vervaardigd maar op zich hebben die weinig met wetenschap van doen. Terug naar AI: systemen zoals GTP kunnen oppervlakkige regelmatigheden detecteren in astronomische hoeveelheden aan data en vervolgens iets produceren wat daar op lijkt. Maar die systemen kunnen net zo gemakkelijk iets produceren dat alle principes van taal en cognitie geweld aandoet. GTP levert geen enkele wetenschappelijke bijdrage, het is zelfs geen engineering product. GTP is een verspilling van dure energie aan wat feitelijk niet meer dan een trucje is.
GM: twee gevaren, in de eerste plaats volgen we nu het verkeerde pad in AI, we kijken niet meer naar de mens. We trekken een heleboel energie uit de cognitieve wetenschap. Het tweede gevaar is dit: systemen als GTP kijken enkel en alleen naar data, ze begrijpen de wereld niet en zo zie je dat ze sexistische en racistische noties met alle data gevoed krijgen en niemand die daar enig zicht op heeft. In één woord: het risiko van misinformatie is gigantisch. Er zijn zoveel trolfarms actief en die vormen een enorm gevaar. Een gevaar voor de democratie vooral. GM voorspelt dat nog dit jaar systemen als GGTP de eerste zelfmoorden zullen veroorzaken. Mensen lopen het risico naar binnen gezogen te worden in zo'n systeem en alles wat geboden wordt voor waar aan te nemen.
NC: ik zie geen enkele bijdrage van deze LLM's large language models aan de wetenschap. Ze helpen ons niet de wereld te begrijpen, ze kunnen dat ook niet, ze zijn te sterk. Het oorspronkelijke doel was om de ontwikkelde vaardigheden in computerwetenschappen, zowel technisch als intellectueel, in te zetten en zien of ze een bijdrage leveren aan ons begrijpen van hoe mensen denken. Denk aan het paper dat Alan Turing schreef in 1950 onder de titel Can machines think waarbij machine gelezen moet worden als programma. Turing wilde onderzoeken wat 'denken' eigenlijk is. Maar niemand die zich daar nu nog voor interesseert. We staren ons blind op de speeltjes en de trucjes. AI heeft in mijn ogen absoluut niets bijgedragen aan de wetenschap. Hert is vooral gevaarlijk.
GM: in linguistics leren we de relatie kennen tussen syntaxis en semantiek maar GTP is daar helemaal niet mee bezig. GTP doet niets anders dan voorspellen wat het volgende woord is nadat het drie woorden gehoord heeft.
Geen opmerkingen:
Een reactie posten