ChatGPT e preoccupazioni sul plagio
ChatGPT e preoccupazioni sul plagio, dalle preoccupazione di artisti, professionisti ai professori arrabbiati nelle scuole.
Le preoccupazioni circa l’impatto sulla scienza sono chiare, ma cosa significa sicurezza e accuratezza, autenticità dei contenuti?
In questo caso, stiamo parlando principalmente di preoccupazioni per il plagio.
Come riportato da Business Insider, l’uso di ChatGPT per scrivere documenti accademici è diventato così comune negli Stati Uniti che uno studente della Princeton University ha sviluppato un’app che determina se un testo è stato scritto utilizzando l’intelligenza artificiale.
Bing combinato con ChatGPT
Come modello linguistico, GPT-3 non è in grado di produrre contenuti o idee originali. Può generare testo solo in base all’input che gli viene fornito. Questo significa che se l’input di GPT-3 include testo copiato da un’altra fonte, anche l’output di GPT-3 includerà quel testo.
È importante sottolineare il fatto che GPT-3 non ha accesso a Internet o a fonti esterne di informazioni, quindi non può copiare testo da siti Web o altre fonti. Tuttavia, se fornisci a GPT-3 un testo che è stato copiato da un’altra fonte, l’output di GPT-3 includerà quel testo.
Ricordiamo che ChatGPT è uno degli assi nella manica di Microsoft, che ha investito 1 miliardo di dollari nel lavoro di OpenAI. Il colosso americano sta attualmente esplorando la possibilità di combinare il modello linguistico con il suo motore di ricerca Bing, che deve essere la più grande arma nella lotta contro l’egemonia di Google.
Una soluzione contro il plagio
In una conferenza presso l’Università del Texas, il ricercatore ospite di OpenAI Scott Aaronson ha affermato che la società stava lavorando a un sistema per contrastare gli imbrogli mediante “filigrana statistica degli output”. La tecnologia funzionerebbe modificando sottilmente la scelta specifica delle parole selezionate da ChatGPT, ha affermato Aaronson, in un modo che non sarebbe visibile a un lettore, ma sarebbe statisticamente prevedibile per chiunque cerchi segni di testo generato dalla macchina.
Filigrana statica degli Outpout contro il plagiarismo
In una conferenza presso l’Università del Texas, il ricercatore ospite di OpenAI Scott Aaronson ha affermato che la società stava lavorando a un sistema per contrastare gli imbrogli mediante filigrana statistica degli output.
Per ora servono varie revisioni e il testo non sempre è perfetto, pertanto è molto semplice intuire dalle ripetizioni e dalla forma del testo, che non è stata scritta da un professionista. Suona tutto un po’ come un logorroico e ripetitivo susseguirsi di parole.
Output
L’output di ChatGPT non ha attivato alcun rilevatore di plagio convenzionale fino a questo punto, dal momento che il testo che produce non è stato scritto prima, lasciando i valutatori che faticano a capire come identificare gli imbroglioni. Finora il modo migliore che hanno trovato per raggiungere questo obiettivo è manipolare la “stringa di token” che costituisce ogni input e output utilizzato nei modelli GPT. Queste stringhe sono utilizzate per parole, segni di punteggiatura e parti di parole. Ci sono 100.000 token e GPT genera costantemente una distribuzione di probabilità sul prossimo token da generare.
Plagiarismo? No, si tratta di Algiarismo!
Dal rilascio di ChatGPT, varie organizzazioni hanno istituito politiche specifiche contro l’invio di testo generato dall’intelligenza artificiale come proprio lavoro. L’uso di strumenti di intelligenza artificiale per generare una scrittura che può essere spacciata per propria è stata soprannominata AIgiarismo dall’informatico, saggista e imprenditore Paul Graham.