Con l’annuncio che ChatGPT potrebbe smettere di funzionare in Europa, molti utenti della piattaforma sono preoccupati riguardo a riguardo. In questo articolo, esamineremo le motivazioni che hanno portato ChatGPT a prendere questa decisione, quali sono le implicazioni legali e quali alternative ci sono per gli utenti europei.
Background e storia di ChatGPT
ChatGPT è stata fondata nel 2019 come piattaforma di chatbot basata sull’intelligenza artificiale, fino ad ora, ha offerto i suoi servizi in Europa. La piattaforma ha guadagnato rapidamente popolarità grazie alla sua interfaccia semplice e alla sua capacità di fornire risposte rapide e accurate alle domande degli utenti.
Tuttavia, nonostante il successo iniziale, ChatGPT ha incontrato alcuni problemi. In particolare, la piattaforma è stata criticata perché non rispettava la regolamentazione sulla privacy, il risultato è stato un blocco temporaneo del servizio, ripristinato poi verso la fine di aprile.
Ragioni per cui ChatGPT potrebbe uscire dal mercato europeo
La possibile decisione di ChatGPT di cessare le operazioni in Europa sono legate alle future decisioni della Comunità Europa . La principale preoccupazione riguarda il fatto che sistemi come quelli sviluppati da OpenAI possano essere considerati ad alto rischio secondo il documento dell’AI Act dell’UE attualmente in esame a Bruxelles. L’obiettivo è quello di avere quante più informazioni possibili sul funzionamento degli algoritmi e provare a spiegare perché ha generato un certo risultato. Dovrebbe essere possibile comprendere il loro modo di pensare, le loro fonti, il sistema di addestramento che ha portato a un esito invece che a un altro. Le altre richieste sono legate alla conoscenza della capacità di calcolo, al tempo necessario per addestrare gli algoritmi e alla metodologia di addestramento.
Nonostante OpenAI sostenga la necessità di avere una regolamentazione per i sistemi di intelligenza artificiale, ha espresso le sue perplessità sulle richieste della comunità europea. La richiesta di trasparenza sul funzionamento degli algoritmi li forzerebbe alla divulgazioni di sistemi che per Sam Altman rappresentano segreti industriali. Inoltre ci sono problemi di natura tecnica e cioè l’impossibilià da parete di OpenAI di spiegare il motivo di alcuni risultati (problema noto com Black Box). Basti pensare che ChatGPT nasce come una intelligenza artificiale di tipo generativo per l’elaborazione e produzione di testi ed invece è in grado ANCHE di risolvere complessi problemi matematici e algoritmi informatici. Inoltre l’analisi dei delle informazioni richieste è problema di non poco conto, poiché potrebbe emergere che l’algoritmo sia stato addestrato anche con materiale protetto da copywrite.
La posizione di Sam Altman
La posizione Altman su quanto sta accadendo è chiara, in una prima fase OpenAI sostiene che le intelligenze artificiali vanno regolamentate, e durante un’audizione al Congresso degli Stati Uniti, si è detto disponibile a collaborare direttamente con il governo statunitense per creare una serie di norme. Successivamente alla luce delle richieste presenti nel documento dell’AI Act dell’UE attualmente in esame a Bruxelles, Altman si dice preoccupato e durante un evento pubblico a Londra: “I dettagli contano davvero. Cercheremo di rispettare le norme, ma se non ci riusciremo dovremo cessare le operazioni”.
L’affermazione, più che una costatazione di ciò che avviene, sembra quasi una minaccia, OpenAi è cosciente di avere tra le mani un prodotto eccezionale è cerca di capire se e come potrà dettare le regole del gioco.