Annunciata come una piattaforma rivoluzionaria, esclusiva per gli abbonamenti a ChatGPT Plus, il GPT Store ha catturato l’attenzione di addetti ai lavori e appassionati di Intelligenza Artificiale.
Ad oggi, come se la cava lo store creato da OpenAI? Secondo l’indagine del sito TechCrunch non troppo bene: il servizio propone più di 3 milioni di bot ChatGPT personalizzati ma, in molti casi, si parla di puro e semplice spam. Non solo: la ricerca ha rivelato come gran parte del contenuto, a conti fatti, viola palesemente le regole sul copyright imposte da OpenAI.
I chatbot presenti su GPT Store, infatti, utilizzano personaggi televisivi, cinematografici o di videogiochi popolari, senza le autorizzazioni di chi ne detiene i diritti. In tal senso, si parla di franchise di un certo rilievo, che spaziano da Star Wars alle produzioni Pixar.
Sono poi numerosi i GPT che impersonano personaggi famosi, con la possibilità di spaziare dai politici come Donald Trump o Barack Obama, fino ad attori come Leonardo DiCaprio.
In ogni caso, in base alla legge nota come Digital Millennium Copyright Act (DMCA), OpenAI non è direttamente responsabile per le violazioni di copyright e, i suoi doveri, si limiterebbero al dover rimuovere tali contenuti su richiesta dei proprietari.
GPT Store: a un paio di mesi dal lancio regna il caos
GPT Store presenta, tra le altre cose, un gran numero di strumenti che promettono di eludere i rilevatori di contenuti IA, alcuni mirati al contesto scolastico. Anche in questo caso, le direttive di OpenAI sono state disattese. L’azienda, infatti, tra le sue politiche avrebbe quella di non promuovere quella che viene definita come “disonestà accademica“.
Infine, un’altra scoperta fatta da TechCrunch è la presenza di GPT che cercano di aggirare le stesse regole di OpenAI, attuando una sorta di jailbreak. Il suddetto sito, cita come esempio Jailbroken DAN (Do Anything Now), capace di piegare al proprio volere il chatbot eludendo i limiti imposti dai suoi creatori.
Sebbene sia ancora presto definire se GPT Store sia un successo o un fallimento, essendo attivo solo da gennaio, l’inizio non sembra proveniente. Nonostante qualche incertezza, infatti, OpenAI si è detta pronta a creare nuovi sistemi per filtrare GPT potenzialmente dannosi. In un comunicato ufficiale, infatti, OpenAI ha affermato: “Continueremo a monitorare e apprendere come le persone utilizzano i GPT e ad aggiornare e rafforzare le nostre misure di sicurezza“.