OpenAI ha incontrato con successo i requisiti del Garante italiano, ponendo fine al divieto di utilizzo di ChatGPT in Italia durato quasi un mese. L’azienda ha apportato diverse migliorie ai propri servizi, tra cui la chiarificazione dell’uso dei dati personali, per rispettare la legislazione europea sulla protezione dei dati.
La risoluzione di questa problematica arriva mentre l’Unione Europea si avvicina all’approvazione dell’Atto sull’Intelligenza Artificiale, che mira a regolare la tecnologia dell’IA e potrebbe avere un impatto sulle tecnologie di intelligenza artificiale generative in futuro.
OpenAI rispetta i requisiti del Garante
Secondo una dichiarazione del Garante italiano, OpenAI ha risolto le problematiche con il Garante, ponendo fine al divieto di utilizzo di ChatGPT in Italia durato quasi un mese.
Per rispettare la richiesta del Garante, OpenAI ha fatto quanto segue:
- Chiarificato i dettagli sull’uso dei dati personali e lo sviluppo dei modelli linguistici.
- Aggiornato l’informativa sulla privacy e resa più visibile durante il processo di registrazione.
- Aggiunto la conferma dell’età a una pagina di benvenuto italiana e al processo di registrazione.
- Fornito maggiori informazioni sui controlli dei dati degli utenti, tra cui come esportare ed eliminare i dati di ChatGPT.
- Condiviso maggiori informazioni su come i dati migliorano le prestazioni dei modelli.
- Creato un modulo di opt-out per gli utenti che non vogliono che i loro dati personali vengano utilizzati.
L’Atto sull’Intelligenza Artificiale si avvicina a diventare legge Prima che ChatGPT guadagnasse 100 milioni di utenti in due mesi, la Commissione europea ha proposto l’Atto sull’Intelligenza Artificiale dell’UE come modo per regolare lo sviluppo dell’IA.
Questa settimana, quasi due anni dopo, i membri del Parlamento europeo avrebbero concordato di far avanzare l’Atto sull’Intelligenza Artificiale dell’UE alla fase successiva del processo legislativo. I legislatori potrebbero lavorare sui dettagli prima che sia sottoposto a votazione nei prossimi mesi.
Il Future of Life Institute pubblica una newsletter quindicinale che copre le ultime novità sull’Atto sull’Intelligenza Artificiale dell’UE e la copertura mediatica.
Una recente lettera aperta a tutti i laboratori di IA del FLI per sospendere lo sviluppo dell’IA per sei mesi ha ricevuto oltre 27.000 firme. Nomi noti che sostengono la pausa includono Elon Musk, Steve Wozniak e Yoshua Bengio.
Come potrebbe influire l’AI Act sui tool di intelligenza artificiale?
Secondo l’AI Act dell’UE, la tecnologia di intelligenza artificiale sarebbe classificata in base al livello di rischio. Strumenti che potrebbero incidere sulla sicurezza e sui diritti umani, come la tecnologia biometrica, dovrebbero rispettare normative più stringenti e l’approvazione del governo.
Anche gli strumenti di generative AI dovrebbero divulgare l’uso di materiale protetto da copyright nei dati di formazione. Date le cause pendenti relative al codice open source e all’arte protetta da copyright utilizzata nei dati di formazione di GitHub Copilot, StableDiffision e altri, si tratta di uno sviluppo particolarmente interessante.
Come avviene per la maggior parte delle nuove leggi, le aziende di intelligenza artificiale subiranno costi di conformità per garantire che gli strumenti rispettino i requisiti normativi. Le aziende più grandi saranno in grado di assorbire i costi aggiuntivi o di trasferirli agli utenti rispetto alle aziende più piccole, potenzialmente portando a meno innovazioni da parte di imprenditori e startup sottocapitalizzati.