Een Reddit -gebruiker en GitHub eerder deze week beweerd Om het letterlijke systeem te onthullen, prompt voor de GPT-5 van Openai, met details over de onderliggende instructies die het gedrag en de antwoorden van het grote taalmodel regelen.
De vermeende systeemprompt, die ook op GitHub op een dag voorafgaand aan zijn Reddit-uiterlijk verscheen, begint met de richtlijn: “U bent chatgpt, een groot taalmodel gebaseerd op het GPT-5-model en getraind door OpenAI.” Deze initiële verklaring stelt de identiteit en oorsprong van het model vast. De prompt geeft verder een kennisdatum voor GPT-5 aan als 2024-06, wat aangeeft de meest recente informatie waarop het model is getraind. Bovendien wordt de persoonlijkheid van het model aangeduid als “V2”, wat in de loop van de tijd een evolutie in de gedragsparameters van Chatgpt impliceert.
De gelekte opdrachten bieden aanzienlijk inzicht in de soorten antwoorden die Chatgpt nu mag genereren en illustreren van de inspanningen van Openai om zijn interacties te vormen. Een specifieke instructie verplicht dat GPT-5 geen zinnen kan gebruiken zoals: “Zou je willen dat ik,” wil ik dat ik dat doe, “” wil je dat ik dat “,” als je wilt, ik kan, “” Laat het me weten als je me zou willen, “” moet ik “of” zal I. ” Hoewel beide bronnen de authenticiteit van de prompt beweren, hebben gebruikers van Hacker News vragen gesteld over de waarheidsgetrouwheid en reproduceerbaarheid ervan, wat suggereert dat de mogelijkheid van lok- of kanarie -prompts.
Systeemprompts spelen een cruciale rol bij het definiëren van de operationele parameters van een LLM, inclusief de tonale kwaliteiten, veiligheidsprotocollen en hoe het verschillende tools gebruikt. Dergelijke lekken kunnen, indien legitiem, pogingen informeren om het model te ‘jailbreaken’, maar nog belangrijker, ze bieden een zeldzame blik op de interne mechanismen van grote taalmodellen. De gerapporteerde wijzigingen binnen de prompt kunnen mogelijk de gebruikerservaring verbeteren door GPT-5 intuïtiever te maken. De prompt noemt naar verluidt ook automatiseringstools, inclusief instructies voor het maken van dagelijkse taken.
Openai’s officiële lanceringsmaterialen voor GPT-5 benadrukken echter een “router/redeneerstapel” in plaats van een enkelvoudig, statisch script, dat het idee van een enkele, canonieke prompt die het hele systeem regelt tegenspreekt. De geruchtensysteemprompt duidt op specifieke wijzigingen van OpenAI die de communicatiestijl van GPT-5 beïnvloeden. Deze wijzigingen omvatten richtlijnen zoals: “Als de volgende stap duidelijk is, doe het dan” en “stel maximaal één noodzakelijke verduidelijkende vraag in het begin, niet aan het einde.”
De prompt bevat ook uitgebreide richtlijnen met betrekking tot het genereren van beeld, inclusief de mogelijkheid om beelden van zichzelf te genereren. De authenticiteit van de vermeende prompt blijft onbewezen en de inhoud ervan kan gedeeltelijk, verouderd of opzettelijk verspreid zijn. OpenAI heeft geen enkele systeemprompt gepubliceerd of bevestigd, en de officiële GPT-5-documentatie beschrijft een gerouteerd systeem in plaats van een eenzaam, statisch script. Het is aannemelijk dat elke echte systeemprompt continue updates ondergaat bij elke nieuwe versie of kleine verfijning van de LLM.





