Rubriche

Barachini, 'non fermare l'innovazione ma servono regole sull'IA'

"Salvaguardare l'integrità del sistema informativo"

Redazione Ansa

(ANSA) - ROMA, 18 OTT - "Siamo in presenza di una sfida senza precedenti, ma ci sono delle possibilità per ridurre l'impatto non virtuoso di questa innovazione". Lo ha detto il sottosegretario all'Editoria, Alberto Barachini, nel corso del convegno "L'etica dell'intelligenza artificiale" in Sala Zuccari, a Palazzo Giustiniani. "Siamo nella fase in cui è necessario adottare delle regole: non per una limitazione, ma per regolamentare il flusso - ha argomentato Barachini -. Lo stiamo facendo con una visione italiana allineata alla visione europea. Oggi nelle commissioni del Senato si sta discutendo un disegno di legge al quale abbiamo contribuito come dipartimento. Sull'editoria abbiamo sviluppato tre punti, a partire dalla difesa del copyright. Poi la riconoscibilità dei contenuti umani, che hanno un responsabile. Questo è un aspetto centrale per migliorare la comprensione dei cittadini, che non è così scontata perché tutti gli studi che abbiamo condotto hanno segnalato che solo un italiano su due ha le conoscenze per capire cosa è una fake news".
    "Ancora più complicato è il fenomeno del deepfake, che può essere drammatico per la vita democratica - ha sottolineato ancora Barachini -. Sull'etica si lavora su tanti fronti: stiamo operando con la moral suasion perché ogni realtà abbia un codice etico. Lo ha varato l'agenzia ANSA che addirittura utilizza una tecnica di watermarking, una filigrana posizionata su blockchain che fa in modo che quella notizia non possa essere modificata da alcuno. Ci sono codici approvati dal Sole 24 Ore, codici che stanno vendendo applicati da Rcs".
    "C'è un grande interesse del mondo digitale per l'editoria italiana, ma servono alcune misure - ha proseguito il sottosegretario -. Penso che innovazione e competitività possono andare insieme al tema della costruzione di una reputazione e di un futuro che preservi un know how. Seguendo le vicende dell'AI Act abbiamo capito che sarebbero serviti tempi lunghi e abbiamo cercato di anticiparli. Abbiamo inserito una novità, che nell'AI Act non c'è, cioè il reato di deep fake perché crediamo che questo sia un grande rischio per il processo democratico".
    "Ci dobbiamo occupare anche del lato positivo dell'intelligenza artificiale, proteggendo i ricercatori italiani che sono all'avanguardia in questo settore", ha sottolineato ancora Barachini. "Il tema è salvaguardare l'integrità del sistema informativo - ha aggiunto -. Non si tratta di sovranismo o identità nazionale, ma di difendere la legalità europea e italiana per evitare di rimanere preda di meccanismi algoritmici che arrivano da paesi molto lontani e con bilanciamenti democratici meno solidi de nostri". (ANSA).
   

Leggi l'articolo completo su ANSA.it