Luglio 27, 2024

Laredazione.eu

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

OpenAI scioglie il team dedicato ai rischi futuri associati alla “super AI”

OpenAI scioglie il team dedicato ai rischi futuri associati alla “super AI”

SAN FRANCISCO (awp/afp) – In seguito alla partenza dei dirigenti, il team OpenAI (ChatGPT) responsabile della sicurezza della potenziale superintelligenza artificiale (AI) è stato sciolto e i suoi membri sono stati riuniti in altri gruppi di ricerca dell’azienda.

OpenAI ha confermato queste informazioni all’AFP venerdì, spiegando che il cambiamento nella struttura è iniziato diverse settimane fa.

L’inventore di ChatGPT garantisce che i ricercatori responsabili della sicurezza dei modelli di intelligenza artificiale possano lavorare in coordinamento con gli ingegneri che sviluppano questi modelli.

Ma i due precedenti manager della squadra avevano appena lasciato l’azienda della star della Silicon Valley.

Jan Lake ha spiegato venerdì su X, ex Twitter, che si sarebbe dimesso a causa di disaccordi fondamentali con il management sulle priorità dell’azienda: innovazione o sicurezza.

“Siamo arrivati ​​a un punto di rottura”, ha affermato l’ingegnere che ha guidato il team responsabile di Superalignment: garantire che la futura intelligenza artificiale generale, intelligente quanto gli esseri umani, sia in linea con i nostri valori.

“È molto triste vedere (Jan Lyke) andarsene”, ha detto Sam Altman, co-fondatore e presidente della società con sede a San Francisco.

“Ha ragione, abbiamo ancora molto da fare (sull’armonizzazione e sulla ricerca sulla sicurezza) e siamo determinati a farlo”, ha aggiunto, promettendo presto un messaggio più lungo.

Il team di “superallineamento” era guidato anche da Ilya Sutskever, co-fondatore di OpenAI, che martedì ha annunciato la sua partenza.

A X, ha affermato di essere “fiducioso che OpenAI costruirà un’intelligenza generale artificiale sicura e utile”.

Ex capo scienziato dell’azienda, è stato membro del consiglio che ha votato per licenziare Sam Altman lo scorso novembre, prima di revocare la sua decisione.

READ  Lo strumento di rilevamento Intel utilizza il flusso sanguigno per identificare i deepfake con una precisione del 96%, lo strumento è basato su processori scalabili Xeon di terza generazione

Con ChatGPT, OpenAI ha lanciato una rivoluzione nell’intelligenza artificiale generativa (produzione di contenuti basati su una semplice query nel linguaggio quotidiano), che ha incuriosito la Silicon Valley ma ha anche allarmato molti osservatori e regolatori, dalla California a Washington e Bruxelles.

Soprattutto quando Sam Altman parla di creare un’intelligenza artificiale generale, cioè con capacità cognitive equivalenti a quelle umane.

OpenAI lunedì ha introdotto una nuova versione di ChatGPT che ora può avere conversazioni verbali senza interruzioni con i suoi utenti, un altro passo verso assistenti AI più personali ed efficienti.

Jan Lake venerdì ha invitato tutti i dipendenti di OpenAI ad “agire con il rischio” di ciò che stanno costruendo.

Ha aggiunto: “Penso che dovremmo dedicare molto tempo alla preparazione delle prossime generazioni di modelli, in termini di sicurezza, controlli, protezione, sicurezza informatica, allineamento con i nostri valori, privacy dei dati, impatto sociale e altri argomenti”.

AFP/RP