Il Gruppo 24 Ore è «il primo gruppo editoriale italiano ad aver adottato un codice di autodisciplina per l'applicazione etica dell'intelligenza artificiale (Ia) all'interno delle sue attività editoriali e professionali». In una nota, il Gruppo spiega che il codice, elaborato con il contributo di esperti interni ed esterni e condiviso con le redazioni, «si ispira ai principi e alle raccomandazioni delle principali organizzazioni internazionali e nazionali, come l'Ai Act approvato dall'Unione europea e la relazione della Commissione Ia per l'informazione del governo italiano e si propone di garantire che l'utilizzo dell'Ia sia in linea con i valori di onestà, correttezza e trasparenza che hanno sempre guidato il Gruppo nei suoi quasi 160 anni di storia».
Il codice di autodisciplina, annunciato al recente Festival dell'Economia di Trento, si applica a tutte le attività editoriali e professionali del Gruppo, con l'obiettivo di tutelare la qualità dell'informazione, l'integrità della professione giornalistica e di tutte le professionalità del Gruppo, nonché il rispetto dei diritti di terzi. Il testo, che prevede inoltre un sistema di monitoraggio e verifica periodica dell'efficacia e dell'adeguatezza delle misure adottate, si articola in sei principi fondamentali.
Conformità normativa: il Gruppo si impegna a verificare che qualunque scelta relativa all'applicazione di modelli di Ia nel Gruppo si sviluppi attraverso un utilizzo corretto e consapevole degli strumenti dell'Ia, in modo da massimizzarne i vantaggi evitando comportamenti rischiosi, violazioni delle politiche aziendali o della normativa. Nell'utilizzo dell'Ia vanno sempre tutelati il rispetto della privacy, la gestione efficace dei dati personali, la protezione del diritto d'autore e della proprietà intellettuale, del Gruppo o di terzi.
Provenienza e Affidabilità dei dati: il Gruppo si impegna a garantire che i dati utilizzati per alimentare i sistemi di Ia siano pertinenti, accurati, completi, aggiornati, sempre sotto la responsabilità del Gruppo. Tutti i dati dovranno provenire da fonti attendibili e verificate, valorizzando la trasparenza in relazione all'origine, e dovranno essere revisionati periodicamente per garantirne l'attualità, integrità e rilevanza.
Human in the loop: il Gruppo assicura la centralità dell'imprescindibile ruolo umano e professionale nel processo di sviluppo e adozione dell'Ia e, pertanto, garantisce che le decisioni e le azioni basate sull'Ia siano sempre sottoposte al controllo e alla supervisione umana. In questo modo i professionisti e gli operatori che utilizzano lo strumento potranno sempre mantenere autonomia valutativa e decisionale. In ambito giornalistico, l'Ia sarà utilizzata esclusivamente come supporto all'attività dei giornalisti e non in sua sostituzione, garantendo qualità, imparzialità e pluralismo informativo.
Inclusività e Diversità: il Gruppo promuove l'uso dell'Ia per favorire l'inclusività e la diversità ed evitare ogni genere di discriminazione attraverso revisioni costanti di algoritmi e dataset che devono essere rappresentativi della varietà socioculturale per prevenire stereotipi e informazioni scorrette e promuovere soluzioni che siano eticamente fondate e socialmente responsabili.
Responsabilità e Accountability: il Gruppo si impegna a far sì che ogni utente - a prescindere dal proprio ruolo nella struttura aziendale - assuma la propria responsabilità nell'utilizzo dell'Ia, in quanto le responsabilità individuali, le competenze e la 'presa in carico' sono da considerarsi essenziali per l'integrazione e l'utilizzo dell'Ia nei processi produttivi e decisionali. Considerando che il risultato generato da un sistema di Ia è potenzialmente imperfetto, prima di utilizzarlo sarà necessario verificare che tale risultato sia corretto e accurato.
Educazione digitale e trasparenza comunicativa: il Gruppo si impegna a diffondere la cultura e la conoscenza dell'Ia tra i propri dipendenti e collaboratori attraverso percorsi formativi, equamente accessibili a tutti i livelli aziendali, con l'obiettivo di abilitare sia le competenze tecniche delle persone sia la capacità di comprensione delle implicazioni etiche e sociali dell'uso dell'Ia. Parallelamente, promuove una comunicazione chiara e trasparente sull'impiego dell'Ia, che consenta a qualunque professionista ed operatore di poterla utilizzare nel rispetto della legge e dei diritti di terzi, e garantisce trasparenza anche nell'identificare i prodotti elaborati attraverso l'utilizzo di sistemi di Ia.