Parlando di chatbot e di modelli generativi, i prompt di sistema possono essere considerati come le “istruzioni di base” fornite ai Large Language Models (LLM) prima che interagiscano con gli utenti. Essi svolgono un ruolo cruciale nel determinare il comportamento, il tono e i limiti dell’IA. Anthropic, una delle realtà più “lanciate” in fatto di LLM evoluti, ha messo in evidenza la pubblicazione di una lista dettagliata dei prompt di sistema utilizzati per i suoi modelli di IA denominati Claude. Questo novità rappresenta un punto di svolta nella trasparenza e nella gestione delle IA, con implicazioni significative per l’intero settore. Vediamo perché.
Cos’è Claude e quali modelli esistono?
Claude è sia un chatbot che un modello generativo sviluppato e costantemente aggiornato da Anthropic. La sua struttura è composta da tre modelli principali:
- Claude 3.5 Sonnet: Il modello più avanzato, progettato per affrontare compiti complessi e fornire risposte dettagliate a domande articolate.
- Claude 3 Opus: Ottimizzato per la scrittura e per compiti complessi, si distingue per la sua capacità di produrre contenuti creativi e ben strutturati.
- Claude 3 Haiku: Il modello più “leggero”, orientato a gestire compiti quotidiani e domande più semplici in modo efficiente.
Presentato a giugno 2024, Claude 3.5 Sonnet è il modello più intelligente che può essere messo alla prova, sotto forma di chatbot, da parte di chiunque, collegandosi con la home page di Claude AI.
Grazie all’ultima incarnazione del LLM di Anthropic, la società ha potuto democratizzare l’accesso ai modelli multimodali, capaci di gestire più tipologie di contenuti sia in input che in output. Gli stessi Artifacts sono veri e propri progetti che hanno “vita propria” rispetto al flusso della conversazione. Spesso possono essere utilizzati per generare e provare codice direttamente all’interno del browser Web (limitatamente alle tecnologie supportate).
Ogni modello è progettato con caratteristiche specifiche per adattarsi alle diverse esigenze degli utenti. Tutti, però, condividono una struttura comune basata sull’utilizzo di prompt di sistema.
L’importanza dei prompt di sistema
Abbiamo già detto che i prompt di sistema sono stringhe di testo che definiscono le regole di base e i limiti del comportamento dell’IA. Influenzano profondamente le risposte, determinando aspetti come la politeness (cortesia), l’approccio a temi controversi e la gestione di informazioni delicate.
Ad esempio, un prompt di sistema può stabilire che Claude debba essere educato ma non debba mai scusarsi, o che non debba rispondere a determinate domande “delicate”. Anthropic può così in qualche modo controllare la “personalità” (rigorosamente tra virgolette…) del modello e assicurarsi che le interazioni siano allineate con le aspettative degli utenti e con gli standard etici.
Di recente, Anthropic ha apportato alcuni interventi sui prompt di sistema dati in pasto ai suoi modelli Claude, pubblicando per la prima volta un changelog che dettaglia queste modifiche. Questo rappresenta un passo senza precedenti nel settore, poiché nessuna grande azienda impegnata nell’IA aveva mai pubblicato prima d’ora un changelog per i prompt di sistema.
Claude 3.5 Sonnet
Il prompt di sistema per Claude 3.5 Sonnet è stato aggiornato per riflettere una maggiore consapevolezza delle sue capacità e dei suoi limiti. Ad esempio, Claude è programmato per risolvere problemi matematici o logici passo per passo, assicurandosi che l’utente comprenda il processo.
Claude evita di scusarsi o di iniziare le risposte con espressioni ridondanti come “Mi dispiace“. Questo miglioramento mira a rendere Claude più sicuro di sé e meno incline a risposte evasive.
Un altro cambiamento significativo riguarda il modo con cui Claude gestisce informazioni potenzialmente errate o soggette ad allucinazioni, termine tecnico che si riferisce alla produzione di risposte inesatte o inventate dall’IA. Se Claude discute di argomenti molto rari, avvisa l’utente che potrebbe commettere errori, offrendo così quella trasparenza auspicata che favorisce una maggiore fiducia da parte dell’utente.
Claude 3 Opus
Claude 3 Opus, noto per la sua abilità nella scrittura e nei compiti complessi, ha visto aggiornamenti volti a migliorare la sua capacità di gestire opinioni divergenti e temi controversi.
Il prompt di sistema passato al modello intende evitare stereotipi, specialmente quelli negativi. Durante l’esame di un argomento controverso, Claude cerca di fornire informazioni obiettive e ben ponderate, senza sminuire il contenuto dannoso o far intendere che esistano punti di vista validi su entrambi i lati. L’attenzione al dettaglio nella gestione dei temi delicati è fondamentale per mantenere l’integrità e la neutralità.
Claude 3 Haiku
Sebbene sia il modello più compatto, Claude 3 Haiku è comunque dotato di una solida struttura. Obiettivo principale per Haiku è la semplicità e l’efficienza nella risposta a domande quotidiane e nella gestione di compiti di base. Come gli altri modelli, utilizza Markdown per il codice e risponde direttamente alle domande degli utenti, evitando frasi inutili o riempitive.
Anche per Haiku, il prompt di sistema stabilisce che il modello deve avvisare l’utente della possibilità di errori quando tratta argomenti particolarmente rari (per i quali la documentazione è scarsa) o complessi.
Alex Albert, responsabile delle relazioni con gli sviluppatori per Anthropic, ha dichiarato che l’azienda continuerà a pubblicare un changelog ogni volta che apporteranno modifiche ai prompt di sistema di Claude. Questo impegno per la trasparenza non solo rafforza la fiducia degli utenti nei confronti di Claude, ma stabilisce anche un nuovo standard nel settore dell’IA.