In mijn stukje van vorige week over Wetenschappelijk schrijven in tijden van AI kondigde ik aan dat ik het ‘receptje’ voor het schrijven van prompts uit dat boek deze week zou gaan uitproberen. Welnu, het werkte als een trein. Een verslagje.
Ik had beloofd met ChatGPT een paar casussen te schrijven voor een workshop over de morele kant van AI, met steeds een situatie over een AI-toepassing en dan een vraag als ‘wat zou jij doen?’ of ‘wat maakt dat uit voor jou?’. We hadden er zelf drie bedacht, en van de vierde alleen het thema, nogal hoog-over (‘discriminatie’). Aan de hand van de instructie in het boek voegde ik aan mijn prompt de elementen taak, rollenspel, stappen, context, doel en vorm toe. Daardoor werd het een uitgebreide prompt, de langste die ik ooit opgegeven had. Ik denk dat ik er zelf niet zo gauw op zou zijn gekomen om de hele context mee te geven, inclusief wat we zelf al bedacht hadden, en ook niet de vorm.
Het schrijven ging vervolgens als een trein. Ik vroeg ChatGPT eerst om de vierde casus, dat was meteen bingo. Inhoudelijk was het direct bruikbaar (over solliciteren, waarbij AI discrimineert); de vraag was nog net wat te weinig persoonlijk: het moest echt een vraag aan de deelnemers zelf zijn, dus niet zoiets als ‘wat zou het bedrijf moeten doen?’ Voor wat betreft de vorm vond ik het een soort-van grappig om te zien hoe het programma braaf aan de eisen voldeed: keurig netjes eerst een situatie en dan een vraag, met nette kopjes erboven. Dat was netter dan in mijn prompt, en ook netter dan ik zelf gedaan zou hebben als ik zo’n schrijf-verzoek gekregen zou hebben.
Het viel me op dat die vierde casus langer was, verder was uitgewerkt, dan onze drie, dus toen vroeg ik om nadere uitwerking van die drie. Dat ging ook goed. Ik was hartstikke blij en onder de indruk. Toen ik beter ging kijken om de vier casussen definitief te maken, was ik echter wel ietsje teleurgesteld: ik moest vooral weer heel wat van die nadere uitwerking wegredigeren. Er stonden verdubbelingen in, vooral tussen situatie en vraag, en soms gaf ChatGPT een te sterke voorzet voor het antwoord.
Een voorbeeld van dat laatste, uit de casus over schrijven. Het gaat er daarin om of het uitmaakt of de geweldige liefdesbrief die je ontvangt door je nieuwe vlam zelf geschreven is, of door ChatGPT. Dat programma had erin gezet:
(…) je voelt je misschien toch een beetje bedrogen. Het lijkt alsof je partner niet echt hun eigen gevoelens heeft uitgedrukt, maar een machine dat voor hen heeft gedaan.
Dat is te ver ingevuld: over de kwesties ‘bedrog’ en ‘echt gevoelens uitdrukken’ mogen de deelnemers zich juist gaan buigen. Zo werden in tweede instantie de oorspronkelijke drie casussen toch weer korter, en dus ook korter dan de vierde. Dat is op zich niet zo erg, wel frappant. In dit geval was ChatGPT beter in zelf iets bedenken dan in aanvullen.
Wat ik hiervan leer is dat de instructie voor prompts uit het boek werkt. Maar meer nog: dat ‘mens of AI’ een schijntegenstelling is. Stel dat we een vijfde casus zouden maken over het schrijven van deze casussen, zo van: wat maakt het voor jou als deelnemer uit als een workshopleider zelf casussen schrijft, of dat door generatieve AI laat doen? Daarin zit die schijn-tegenstelling. Ja, ChatGPT heeft me geholpen, maar de menselijke creativiteit is gaan zitten in het voorwerk dat leidde tot de prompt, en zonder mijn inmenging achteraf was het ook niet helemaal goed gegaan. Het is dus ‘een beetje van mezelf en een beetje van ChatGPT’ (bron) en niet ‘óf mens, óf ChatGPT’.
En bedenk nu zelf wat dat uitmaakt voor jou (;