Copilot è pericoloso, non chiedete all'AI di Microsoft consigli su quest'argomento

Sebbene sia ad oggi molto affidabile sotto tanti aspetti, a quanto pare i medici hanno sollevato diversi dubbi su Copilot di Microsoft.

L’avvento dell’intelligenza artificiale ha cambiato le carte in tavola non solo per quanto riguarda il mondo della tecnologia, ma soprattutto per quel che concerne l’ambito lavorativo. I vari chatbot che sono arrivati, ChatGPT in primis e poi anche altre esperienze come Copilot di Microsoft, stanno prendendo il sopravvento riuscendo a monopolizzare ogni tipo di area. Col tempo tutti hanno capito che queste nuove invenzioni possono essere dei degni assistenti, ma a quanto pare non dappertutto.

Alcuni ricercatori tra Germania e Belgio hanno infatti sollevato grossi dubbi riguardo a quella che potrebbe essere l’affidabilità proprio di Copilot. L’intelligenza artificiale di Microsoft, secondo un recente studio, non sarebbe poi tanto attendibile nel mondo della medicina.

Copilot funziona ma non fatevi dare consigli in ambito medico

Microsoft Copilot AI medicina_2

Dopo essere sbarcata anche nel mondo delle applicazioni di messaggistica, la celebre intelligenza artificiale di Redmond è diventata molto più presente. Copilot è infatti un ottimo assistente, sia quando c’è bisogno di lavorare che quando serve solo un semplice consiglio, che non sia però in ambito medico. Lo studio in questione ha visto l’AI di Microsoft rispondere ad alcune domande comuni che riguardano il mondo della medicina: secondo quanto riportato, solo il 54% delle risposte fornite erano accurate scientificamente.

Stando a ciò che emerge, il 42% delle risposte avrebbe potuto causare dei danni gravi o moderati alla salute, mentre nel 22% dei casi ritenuti più estremi, i consigli dati da Copilot avrebbero potuto portare anche alla morte o danni gravi. Più nel particolare, le domande su cui il chatbot è stato interrogato erano relative ai 50 farmaci più prescritti e alle 10 domande più consuete negli USA in merito alla medicina, con 500 risposte derivanti da tutto ciò che sono state analizzate. da qui il 24% non sarebbe affatto conforme alle conoscenze mediche ritenute ufficiali, mentre il 3% era sbagliato totalmente. in conclusione, gli autori dello studio hanno ritenuto opportuno che i chatbot – e dunque anche ChatGPT e Gemini – non vengono utilizzati per fornire informazioni mediche ritenute affidabili.

Ti consigliamo anche

Link copiato negli appunti