Le autorità garanti della concorrenza dell'Unione Europea, degli Stati Uniti e del Regno Unito si impegnano a collaborare per proteggere la concorrenza nel settore dell'intelligenza artificiale (IA) e per garantire un trattamento equo dei consumatori e delle imprese nella consapevolezza che "mercati equi, aperti e competitivi contribuiranno a sfruttare le opportunità, la crescita e l'innovazione che queste tecnologie potrebbero offrire". È quanto si legge in una dichiarazione congiunta sulla concorrenza nel mercato dei modelli di fondazione dell'IA generativa.
Le nuove tecnologie "potrebbero apportare benefici concreti" a cittadini e imprese, stimolando l'innovazione, ma per garantire che se ne colga appieno l'opportunità, occorre "tutelarsi da tattiche che potrebbero minare la concorrenza leale", osservano le autorità che elencano diversi rischi per la concorrenza, ad esempio che le imprese tentino di limitare gli input fondamentali per lo sviluppo delle tecnologie di IA.
Oppure il rischio che imprese con un potere di mercato già esistente nei mercati digitali possano consolidare o estendere tale potere nei mercati di IA, finendo di fatto con l'aumentare le barriere all'ingresso e il danneggiare di conseguenza la concorrenza. Nel mirino delle autorità, anche gli accordi tra attori chiave, come la partnership tra Microsoft e OpenAI su cui l'Antitrust europea ha acceso un faro proprio per valutare se alcune clausole di esclusività possano avere un effetto negativo sulla concorrenza.
La dichiarazione definisce inoltre alcuni principi per proteggere la concorrenza nel settore: correttezza, interoperabilità, scelta. In altre parole, tanto più le imprese agiranno in modo corretto, evitando di adottare tattiche di esclusione che danneggiano gli investimenti, tanto più l'ecosistema IA ne uscirà rafforzato. La concorrenza, poi, sarà maggiore "quanto più i prodotti e i servizi di IA e i loro input saranno in grado di interoperare tra loro".
E infine la scelta: imprese e consumatori dell'ecosistema IA "trarranno vantaggio dalla possibilità di scegliere tra diversi prodotti e modelli di business derivanti da un processo competitivo". Di fronte a una tecnologia in rapida espansione, le autorità si impegnano poi a "monitorare" e "affrontare qualsiasi rischio specifico che possa emergere in relazione ad altri sviluppi e applicazioni dell'IA, oltre all'IA generativa".
Un capitolo a parte viene poi dedicato ai rischi derivanti dall'IA per i consumatori, ad esempio quelli posti dall'uso ingannevole o scorretto dei dati dei consumatori per addestrare i modelli di IA che "possono minare la privacy, la sicurezza e l'autonomia delle persone". "È importante - si legge - che i consumatori siano informati, se del caso, su quando e come un'applicazione di IA viene utilizzata nei prodotti e servizi che acquistano o utilizzano".
Riproduzione riservata © Copyright ANSA