Intelligenza artificiale ChatGPT

Cresce la preoccupazione in merito all’uso di ChatGpt, software di intelligenza artificiale, che secondo gli esperti del settore, nella prossima versione aggiornata potrebbe essere addirittura indistinguibile dall’uomo. La scienza e la tecnologia fanno passi da gigante e con esse l’intelligenza artificiale, e così è in corso una verifica dell’utilizzo di questa nuova tecnologia.

Il Garante italiano per la protezione dei dati personali, per esempio, ha disposto il blocco finché non rispetterà la disciplina privacy. Un timore che nasce soprattutto in seguito ai primi dati e le opinioni ricevute in merito alla quinta versione della tecnologia che potrebbe presentare capacità non distinguibili da quelle umane.

Un timore che nelle ultime settimane sta prendendo piede anche tra ricercatori e manager che hanno firmato una lettera aperta nella quale hanno chiesto uno stop oppure una moratoria all’intelligenza artificiale. Un documento sottoscritto anche dal magnate Elon Musk che ritiene necessaria una pausa dell’AI poiché porrebbe “profondi rischi per la società e per l’umanità”. La proposta è una pausa di sei mesi e uno stop all’addestramento di sistemi più avanzati.

L’uomo quini inizia a temere la tecnologia che, evidentemente, si è spinta ben oltre le aspettative, spaventando gli stessi creatori e chi della ricerca e dello sviluppo ne ha fatta una missione personale, oltre che un fruttuoso business.

Da dove nascono i timori

A svelare il progetto di ChatGpt-5 è stato lo sviluppatore Siqi Chen che ha dichiarato su Twitter di aver appreso che la nuova versione del software, che sarebbe rilasciata il prossimo inverno, dovrebbe raggiungere l’Agi, acronimo di artificial general intelligence, cioè la capacità di un programma di pensare e agire esattamente come una persona. Ergo, parlare con ChatGpt-5, tra qualche mese potrebbe assomigliare sempre di più al parlare con un essere umano.

OpenAI, la società che ha lanciato il software ChatGpt, dovrà affrontare intanto negli Stati Uniti una denuncia rivolta alla Federal Trade Commission: è stata sporta dalla società di ricerca senza scopo di lucro Center for AI and Digital Policy e chiede all’agenzia americana di far sospendere a OpenAi l’implementazione commerciale di modelli linguistici di grandi dimensioni come ChatGpt. L’associazione definisce Gpt-4, l’ultima versione del software, “di parte, ingannevole e con un rischio per la privacy e la sicurezza pubblica”.