Chi nella nostra società non padroneggia la lingua nazionale si troverà costantemente di fronte a delle difficoltà. Non è possibile comunicare con la pubblica amministrazione, informarsi sugli sviluppi regionali attraverso la stampa locale né beneficiare appieno del nostro sistema educativo. Le barriere linguistiche portano rapidamente a esperienze negative e rendono notevolmente più difficile la partecipazione alla vita sociale.
Nella vita quotidiana ci capita spesso di imbatterci in testi di difficile comprensione, come contratti, linee guida e comunicazioni delle autorità. Molte persone, in particolare quelle la cui lingua madre non è quella in cui sono redatti i testi, o chi ha difficoltà di apprendimento, hanno difficoltà a comprenderli. Ciò può portare a un senso di esclusione e al ritiro dalla vita sociale. Rendendo i testi più comprensibili – attraverso l'uso di parole più semplici, una presentazione chiara di informazioni complesse e l'impiego di ausili visivi – possiamo ridurre lo svantaggio di questi gruppi e prevenire la loro emarginazione. Pertanto, rendere accessibili le informazioni a questi gruppi e abbattere così gli ostacoli alla partecipazione può essere inteso come un compito che riguarda l'intera società.
A tal fine si sono affermati, tra gli altri, i concetti di "linguaggio semplificato" e "linguaggio facile". L'offerta di testi semplificati è in costante crescita e, in alcuni casi, esiste persino un diritto legale a ricevere informazioni di facile comprensione. Tuttavia, l'elevato sforzo richiesto per la loro creazione ne limita la quantità disponibile. In questo ambito, i sistemi di IA generativa possono fornire un supporto. In questo articolo desideriamo illustrare gli aspetti positivi e negativi dell'uso dell'IA in questo settore ed evidenziare le questioni ancora aperte.
Lo stato attuale dell'intelligenza artificiale e i suoi rischi
L'intelligenza artificiale generativa (IA) è in grado di creare autonomamente contenuti, come testi o immagini. Dalla pubblicazione di ChatGPT, questi algoritmi sono diventati parte integrante della nostra vita quotidiana. L'IA viene utilizzata con naturalezza per traduzioni, sintesi o persino come chatbot aperto, che sembra offrire assistenza per qualsiasi problema. Tuttavia, questo sviluppo porta con sé anche nuovi problemi e interrogativi derivanti dall'applicazione dell'IA:
- Che influenza ha l'intelligenza artificiale sulla pratica scientifica?
- Che impatto ha l'intelligenza artificiale sull'insegnamento e sulla formazione?
- Che impatto ha l'uso improprio dell'intelligenza artificiale, ad esempio nella creazione di fake news, sulla nostra società?
- …
Tali rischi possono estendersi ai sistemi di IA utilizzati per la semplificazione linguistica. In questo contesto, tuttavia, occorre tenere conto degli aspetti metodologici e sociali specifici legati alla semplificazione linguistica.
A chi si rivolge?
Esaminiamo innanzitutto il gruppo target a cui sono rivolte le semplificazioni linguistiche. Si tratta di un gruppo molto eterogeneo, che spazia dai non madrelingua o dai non addetti ai lavori fino ai bambini o alle persone con difficoltà di apprendimento. Alcune parti di questo gruppo target possono essere particolarmente “vulnerabili”. Con questo intendiamo dire che queste persone corrono il rischio di essere ingannate o sfruttate attraverso le informazioni testuali.
Con questo termine non intendiamo descrivere il gruppo target in modo stereotipato come «facilmente ingannabile», ma sottolineare che alcune persone dovrebbero essere protette in misura particolare. Inoltre, anche i gruppi che tendono ad essere considerati «non vulnerabili» possono essere ingannati. Un esempio sono i non addetti ai lavori che leggono un testo specialistico redatto appositamente per indurli in errore.
Oltre al pubblico molto eterogeneo, nella valutazione dei rischi vorremmo distinguere anche i diversi tipi di utilizzo dell'IA.
Semplificazione basata sull'intelligenza artificiale
In primo luogo, l’IA può essere utilizzata per semplificare le informazioni esistenti. In questo caso, possiamo partire dal presupposto che la qualità del contenuto delle informazioni originali sia già garantita. Per il gruppo target ne derivano diversi effetti positivi: ad esempio, la maggiore disponibilità di informazioni accessibili aumenta l’autonomia e la partecipazione. Per le persone che nella vita quotidiana necessitano di assistenza e sostegno, diminuisce lo sforzo richiesto dalla lettura e dalla comprensione congiunta dei testi. Le risorse così liberate possono essere impiegate in altro modo nell’assistenza.
D'altra parte, i professionisti che semplificano i testi si assicurano che le loro formulazioni non possano essere fraintese. Ciò impedisce che le persone che fanno affidamento su testi semplificati traggano conclusioni errate da essi. La semplificazione di testi complessi richiede spesso modifiche, come abbreviazioni, l'uso di esempi ecc., per rendere i contenuti più comprensibili. Senza un'ulteriore revisione umana, queste modifiche potrebbero portare a fraintendimenti dei contenuti, anche se il testo originale è stato controllato con cura. Questi adattamenti sono necessari per rendere i testi davvero più semplici e comprensibili.
IA generativa per la creazione di nuovi contenuti
Consideriamo ora la generazione di nuovi contenuti tramite l'IA. La rapida diffusione di ChatGPT dimostra che molte persone utilizzano volentieri l'IA generativa e sembrano trarne beneficio. Anche chi ha bisogno di testi semplificati ha il diritto di poter beneficiare degli aspetti positivi di questa tecnologia. Tuttavia, ciò potrebbe comportare conseguenze negative per i gruppi vulnerabili.
Nell'utilizzo dei modelli di linguaggio di grandi dimensioni (LLM), in particolare nei sistemi di chat aperti come ChatGPT, sono noti problemi quali fatti apparentemente inventati (allucinazioni), rappresentazioni errate o meccanismi di sicurezza facilmente aggirabili. Questi problemi possono quindi essere estesi anche alle soluzioni qui prese in esame.
Per l'addestramento dei modelli di IA vengono utilizzati dati online. Questi possono talvolta contenere informazioni deliberatamente fuorvianti o rappresentazioni parziali. Tali informazioni possono infiltrarsi latentemente nei modelli durante l'addestramento. Quale impatto può avere ciò sull'IA che comunica in modo mirato con un gruppo target vulnerabile? In che misura è possibile limitare le conseguenze negative attraverso misure di sicurezza? Si dovrebbe evitare che un modello di IA metta a confronto un gruppo target vulnerabile con informazioni di questo tipo.
Il nostro consiglio
Da ciò deriviamo le seguenti raccomandazioni per gli sviluppi futuri. A tal fine ci limitiamo agli aspetti specifici della semplificazione linguistica. Da un lato, abbiamo bisogno di un meccanismo che ci consenta di adattare il tipo di semplificazione – ovvero il grado di semplificazione linguistica e di riduzione dei contenuti – alle esigenze degli utenti. Dobbiamo evitare che gli utenti vengano sistematicamente trattati con condiscendenza da un’IA a causa di una riduzione eccessiva della complessità. Abbiamo bisogno di una nuova metodologia che consenta di valutare la comprensibilità in questo contesto specifico.
In settori particolarmente delicati come l'assistenza e il sostegno, i modelli di IA dovrebbero essere utilizzati a titolo di supporto, dati i rischi esistenti. Non devono sostituire l'interazione umana.
Se l'IA generativa deve comunicare in forma semplificata senza controllo umano, dovremmo limitare l'ambito tematico in cui la applichiamo in modo tale che sia tecnicamente possibile verificare le risposte. Al momento non riteniamo che sia possibile tenere conto dei rischi descritti nei sistemi aperti. Raccomandiamo quindi di limitarne la portata per poter integrare meccanismi di sicurezza.
Per concludere, vorremmo sottolineare la questione ancora aperta relativa alle modalità di regolamentazione dell'accesso a tali sistemi. A causa dei rischi descritti, si potrebbe optare per sistemi chiusi, il che significa che solo gli utenti verificati potrebbero accedervi. I sistemi accessibili a tutti, invece, consentono un utilizzo semplice e anonimo e presentano un maggiore potenziale per aumentare concretamente la partecipazione.
Autori
Lars Klöser, M.Sc.