/https://www.ilsoftware.it/app/uploads/2024/06/openai-multi-acquisizione.jpg)
L’accusa arriva direttamente da un esperto di Intelligenza Artificiale: OpenAI avrebbe alcune politiche pericolose nel contesto della sicurezza.
Miles Brundage, ex ricercatore della stessa compagnia, ha di recente criticato documento sulla sicurezza e l’allineamento dell’azienda pubblicato questa settimana. Secondo Brundage, l’intenzione di raggiungere l’Intelligenza Artificiale Generale (AGI) dovrebbe prevedere molti piccoli passi e non un unico grande balzo, come sembra voler fare OpenAI.
Tra le tante critiche alla tecnologia AI come ChatGPT, gli esperti del settore temono che i chatbot forniscano informazioni imprecise su temi sensibili come salute e sicurezza, oltre a ulteriori rischi riguardanti disinformazione o vere e proprie truffe. Secondo alcuni, le politiche di OpenAI sono poco trasparenti, con i modelli AI che potrebbero prestarsi a eventuali manomissioni esterne.
OpenAI e sicurezza: il nuovo documento non tranquillizza gli esperti
Se OpenAI aveva dimostrato un approccio prudente, come in occasione del lancio di GPT-2, ora sembra voler premere sull’acceleratore, forse anche spinta da una serie di concorrenti, come DeepSeek, che si stanno dimostrando alla sua altezza.
Brundage sostiene che il documento sta alterando la narrazione e non è una rappresentazione accurata della storia dello sviluppo dell’AI in OpenAI.
All’epoca, il rilascio del modello GPT2 è avvenuto in modo incrementale, con passaggi intermedi utili per testare gli eventuali rischi. Questo tipo di approccio, a quanto pare, non è considerato più valido da OpenAI: un atteggiamento che sta sollevando le preoccupazioni di diversi esperti, tra cui lo stesso Brundage.
L’esperto in questione ha sottolineato come un approccio basato sulla prevenzione, viste le enormi potenzialità di queste tecnologie. Attendere “Prove schiaccianti di pericoli imminenti“, secondo Brundage, è un approccio molto pericoloso.
D’altro canto, già in passato sono stati segnalati diversi abusi di ChatGPT e strumenti simili. Lo scorso mese di ottobre, per esempio, OpenAI ha bloccato diversi utenti che cercavano di abusare del chatbot per creare delle nuove varianti di malware.