Editoria e informazione: il futuro con l’intelligenza artificiale

Ne ha parlato al Festival dell'Economia il sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all'informazione e all'editoria

È la componente umana, allora, quello che salverà davvero informazione ed editoria dai peggiori scenari possibili prodotti dall’intelligenza artificiale e dai suoi usi sregolati. Più che, come sta accadendo oggi, una polarizzazione tra editori che battagliano l’IA e quelli che avviano con essa dei negoziati, i tre ospiti intervenuti sul tema al Festival, concordano nel ricercare una terza via, mediatrice ma fatta di regole ferree.
 
«Per salvare il mondo dei media dai rischi dell’intelligenza artificiale dobbiamo adottare un approccio umano-centrico – ha dichiarato Mirja Cartia d'Asero. Dobbiamo quindi tenere conto del fatto che si tratta di un tool tecnologico capace di amplificare le risorse a disposizione di un giornalista, ma anche che servono delle tutele etiche chiare».

Manca in particolare, secondo Paul Verwilt, «una legge internazionale che si occupi della proprietà intellettuale: nel momento in cui l’ai assorbe degli input e genera un output, questo nuovo prodotto di chi è?».


 
Il rischio è, nel non dare risposta a questo quesito, ha aggiunto Alberto Barachini (foto in basso), «che si perda la consapevolezza di chi ha dato vita agli input stessi, quindi del ruolo dei giornalisti, della creatività, del pluralismo. Dobbiamo ricordare sempre da dove veniamo e dunque l’importanza dell’informazione stessa. Il rischio è che non resti che superficie o di paradossi come l’idea che un’informazione prodotta da intelligenza artificiale possa essere più imparziale».
 
Senza incappare in un’over-regolamentazione, fondamentale diventa dunque la presenza di norme. Norme che cominciano a comparire sulla scena – basti pensare all’Ai Act approvato di recente dall’Europa – ma che hanno tempi lunghi di gestazione e applicazione. Cosa resta, nel mentre?

«L’autoregolamentazione – hanno affermato sia d’Asero che Verwilt -. Regolamenti interni ai gruppi editoriali, che lavorino sul blocco dei dati accessibili da parte delle società di ai, sull’uso moderato di questa intelligenza da parte dei redattori, ma anche, ancora, sulla definizione chiara dei contenuti prodotti da IA (e delle percentuali di utilizzo della stessa) e sulla tutela della presenza necessaria nella filiera produttiva di una componente umana».