Zeg niet AI, zeg LLM
‘Waarom zou je nog leren schrijven, dat gaat AI toch overnemen?’ – ik hoor die vraag, net als veel andere schrijfdocenten en -trainers. Ik ben me aan het verdiepen in ChatGPT en aanverwanten ermee bezig om een beter antwoord te kunnen geven. De afgelopen dikke week zette ik daarin grote stappen: vorige week in Groningen door de presentatie van Lieve de Wachter over de aanpak van de KU Leuven, en afgelopen dinsdag in Leiden door de ‘salon’ van de NACV over ‘AI in higher education’, met AI onderzoeker Sophie Horsman en een panel van schrijfdocenten in het hoger onderwijs.
Als ik alles overzie, heb ik nu de volgende ingrediënten voor het antwoord:
- Schrijven kan AI weliswaar grotendeels overnemen, maar denken niet. Dus zo gauw als het gaat om zaken waar je als schrijver eigen gedachtevorming voor nodig hebt, voor jezelf dan wel voor de lezer, dan moet je het zelf doen. Er is dus nog steeds een grote rol voor ‘writing to learn’ en voor schrijven om te komen tot een dieper begrip. Echt begrip. Want begrijpen, dat doet AI niet, het berekent alleen. Die I in AI, intelligentie, is daarom eigenlijk onterecht. In plaats van over AI zouden we voor schrijven beter kunnen praten over Large Language Models, LLM, en in het algemeen beter over toegepaste statistiek. Dat is immers wat het is: ‘woordenkramerij zonder beoogde betekenis’ (zei De Wachter). Je kunt het resultaat van het diepere denkwerk vervolgens wel door ChatGPT en aanverwanten laten checken en oppoetsen, zoals je daar vroeger een huisgenoot voor vroeg of wat een redacteur kan doen. Het meest interessante en vernieuwende schrijfwerk blijft dus over.
- In leren schrijven moet het accent meer op het proces komen te liggen. Van hoe je dat diepe denkwerk doet bijvoorbeeld (ik denk: piramideprincipe!), maar ook van hoe je LLM in kan zetten in je schrijfproces. De aanpak van de KU Leuven was dan ook sterk procesgericht, met procesverslagen, onder andere van hoe de studenten de door ChatGPT gegenereerde tekst hadden herschreven.
Wat mij betreft is dat de kern voor mijn eigen werk. Daar komt dan nog bij:
- LLM goed leren gebruiken is geen sinecure. Je moet daarvoor dus eigenlijk een geheel nieuwe set vaardigheden aanleren, waaronder het formuleren van een goede ‘prompt’ maar ook kritisch lezen – LLM genereert ook nogal wat onzin.
- Schrijfopdrachten moeten de moeite waard zijn. LLM kan bijvoorbeeld goed reproduceren, dus dat moet niet alles zijn wat een schrijfopdracht behelst.
- LLM vergroot de ongelijkheid. Dat is mogelijk nu al zo: het ging maar om één groep, maar goede studenten aan de KU Leuven scoorden nog beter, zwakke slechter. En het zal zeker het geval zijn als er straks voor het gebruik van goede programma’s betaald moet worden.
- Er zit een hele zwik ethische problemen aan het gebruik van ChatGPT, waaronder op het gebied van privacy, macht en energieverbruik. Daarom kun je het in elk geval niet verplicht stellen.
Ik ken de NACV van de expertmeetings; zo’n salon is kleinschaliger: één thema, minder mensen, korter. Ik vond het zeer de moeite waard. In dit geval was ik vooral blij met de zorgvuldige, genuanceerde en toegepaste behandeling van AI. In de reguliere media heb je nogal felle voor- en tegenstanders met heftige argumenten, en bovendien lees ik daar de laatste tijd vaak hetzelfde. Deze bijeenkomst verdiepte mijn begrip, ook van de werking van LLM. Ik ben daarover nog niet uitgeleerd, dus ik zeg: wordt vervolgd!
Reacties
Zeg niet AI, zeg LLM — Geen reacties
HTML tags allowed in your comment: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>