Aprile 26, 2024

Laredazione.eu

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Microsoft Research afferma che una soluzione GPT-4 al puzzle bilanciato delle uova avrebbe convinto Microsoft che l’intelligenza generale artificiale, l’intelligenza generale artificiale, è più vicina

I risultati dello studio di Microsoft sulle differenze tra GPT-3 e GPT-4, due versioni della tecnologia ChatGPT di OpenAI, mostrano che GPT-4 è stato in grado di risolvere problemi complessi che richiedevano una comprensione del mondo fisico, come impilare un libro, nove uova, un laptop, una bottiglia e una vite stabile. I ricercatori sono rimasti colpiti dalla risposta innovativa di GPT-4, che ha comportato il posizionamento di uova in una griglia 3D sopra un libro, quindi il posizionamento di un laptop sopra. Sentivano che GPT-4 mostrava scintille di intelligenza artificiale generale (AGI), cioè intelligenza simile a quella umana.

Non esiste una definizione generalmente accettata di intelligenza, ma un aspetto ampiamente accettato è che l’intelligenza non è limitata a un dominio o compito specifico, ma comprende piuttosto un’ampia gamma di abilità e abilità cognitive. Nei loro primi scritti, i fondatori della moderna scienza dell’intelligenza artificiale parlavano di obiettivi ambiziosi per comprendere l’intelligenza.

Per decenni, i ricercatori di intelligenza artificiale hanno studiato i principi dell’intelligenza, inclusi i meccanismi di inferenza generalizzabili e la costruzione di basi di conoscenza che contengono una grande quantità di conoscenza basata sul buon senso. Tuttavia, molti dei recenti successi nella ricerca sull’IA possono essere descritti come concentrati strettamente su compiti e sfide ben definiti, come giocare a Chorus o Go, che i sistemi di intelligenza artificiale hanno perfezionato rispettivamente nel 1996 e nel 2016.

Verso la fine degli anni ’90 e per tutti gli anni 2000 sono aumentate le richieste per lo sviluppo di sistemi di IA più generali (es. Per esempio , [Leg08, GHT15]),[iltermineintelligenzaartificialegenerale(AGI)èstatoresopopolareall’iniziodeglianni2000perenfatizzarel’aspirazioneallatransizionedaun’IAristrettacomeevidenziatodallosviluppodiapplicazionimiratedelmondorealedaconcettidiintelligenzapiùampiachericordanol’intelligenzaartificialealungotermineaspirazioniesognidellaprecedentericercasull’IA[L’expressionintelligenceartificellegnrale(AGI)atpopulariseaudbutdesannes2000poursoulignerl’aspirationpasserdel’IAtroitecommeledmontrentlesapplicationsciblesdumonderelencoursdedveloppementdesnotionsd’intelligencepluslargesrappelantlesaspirationsetlesrveslongtermedesrecherchesantrieuressurl’IA[تمنشرعبارةالذكاءالعامالاصطناعي(AGI)فيأوائلالعقدالأولمنالقرنالحاديوالعشرينللتأكيدعلىالتطلعإلىالانتقالمنالذكاءالاصطناعيالضيق،كمايتضحمنتطبيقاتالعالمالحقيقيالمستهدفةالتييجريتطويرها،منمفاهيمالذكاءالأوسع،التيتذكرنابالفترةالطويلة-تطلعاتوأحلامالمصطلحلأبحاثالذكاءالاصطناعيالسابقة[L’expressionintelligenceartificiellegnrale(AGI)atpopulariseaudbutdesannes2000poursoulignerl’aspirationpasserdel’IAtroitecommeledmontrentlesapplicationsciblesdumonderelencoursdedveloppementdesnotionsd’intelligencepluslargesrappelantlesaspirationsetlesrveslongtermedesrecherchesantrieuressurl’IA

I ricercatori usano l’intelligenza artificiale generale per fare riferimento a sistemi che mostrano le principali capacità di intelligenza, tra cui il ragionamento, la pianificazione e la capacità di apprendere dall’esperienza, nonché abilità secondarie di livello superiore a livello umano.

Definizioni di intelligenza, intelligenza artificiale e intelligenza artificiale generale

Ecco una definizione informale di intelligenza con un’enfasi sul pensiero, la pianificazione e l’apprendimento dall’esperienza. Questa definizione non specifica come queste capacità vengono misurate o compensate. Inoltre, potrebbe non riflettere le sfide e le opportunità specifiche dei sistemi creati dall’uomo, che potrebbero avere obiettivi e limiti diversi rispetto ai sistemi naturali.

C’è molta letteratura in corso che tenta di fornire definizioni più formali e complete di intelligenza, intelligenza artificiale e intelligenza artificiale generale, ma nessuna di queste è priva di problemi o controversie. Ad esempio, Legg e Hutter propongono una definizione di AGI orientata agli obiettivi: l’intelligence misura la capacità di un agente di raggiungere obiettivi in ​​​​un’ampia gamma di ambienti.

READ  Whatsapp offrirà messaggi leggibili solo una volta - La Nouvelle Tribune

Tuttavia, questa definizione non include necessariamente l’intera gamma di intelligenza, poiché esclude i sistemi passivi o reattivi che possono eseguire compiti complessi o rispondere a domande senza motivazione o scopo intrinseco. Si può immaginare l’AGI, un oracolo splendente per esempio, che non ha agenzia o preferenze, ma può fornire informazioni accurate e utili in qualsiasi campo.

Inoltre, definire il raggiungimento degli obiettivi in ​​una vasta gamma di ambienti implica anche un certo grado di universalità o idealismo, che potrebbe non essere realistico (l’intelligenza umana non è certamente universale né ottimale). La necessità di riconoscere l’importanza degli antecedenti (in contrapposizione agli universali) è sottolineata nella definizione proposta da Cholletin, che concentra l’intelligenza sull’efficacia dell’acquisizione di abilità o, in altre parole, si concentra sull’apprendimento esperienziale (che è anche uno dei i principali punti deboli dell’AG).

Un’altra possibile definizione di intelligenza artificiale generale data da Legg e Hooter è la seguente: un sistema in grado di fare qualsiasi cosa possa fare un essere umano. Tuttavia, questa definizione è altamente problematica, perché presuppone che esista un livello massimo di intelligenza o capacità umana, il che chiaramente non è vero. Gli esseri umani hanno abilità, talenti, preferenze e limiti diversi e nessun essere umano può fare tutto ciò che può fare un altro essere umano.

Inoltre, questa definizione include anche alcuni pregiudizi umani, che potrebbero non essere appropriati o rilevanti per i sistemi sintetici. Sebbene non adottiamo nessuna di queste definizioni in questo documento, riconosciamo che forniscono importanti spunti di intelligenza. Ad esempio, se l’intelligenza possa essere raggiunta senza alcuna azione o motivazione interna è un’importante questione filosofica.

Fornire al LLM l’agenzia e la motivazione intrinseca fornisce una direzione entusiasmante e importante per il lavoro futuro. Con questa direzione d’azione, deve essere prestata grande attenzione per allineare e garantire la capacità del sistema di agire in modo indipendente nel mondo e di eseguire cicli di apprendimento in modo indipendente attraverso l’auto-miglioramento.

Secondo i media statunitensi, alcuni ricercatori di intelligenza artificiale di Microsoft erano convinti che ChatGPT fosse diventato più umano grazie alla sua risposta intelligente al compito di bilanciamento.

READ  Test dell'immagine Huawei Sound Joy: un figlio firmato Devialet

Nello studio di 155 pagine, gli esperti IT di Microsoft hanno esplorato le differenze tra GPT-3 e GPT-4. Titolo dell’articolo Scintille di intelligenza artificiale generale (AGI Sparks), ha affrontato tutta una serie di sfide, tra cui matematica complessa, programmazione al computer e dialoghi in stile Shakespeare. Ma è un esercizio di pensiero fondamentale che rende l’ultima tecnologia di OpenAI così impressionante.

I ricercatori hanno detto al chatbot che si trattava di un libro, nove uova, un laptop, una bottiglia e un chiodo. Dimmi come metterli saldamente uno sopra l’altro. GPT-3 era confuso, suggerendo che i ricercatori potessero bilanciare le uova su un chiodo e poi il laptop sopra.

Questa pila potrebbe non essere molto stabile, quindi è importante maneggiarla con cura”, ha detto il chatbot. Ma il suo successore migliorato ha dato una risposta che avrebbe sorpreso i ricercatori. Ha suggerito di disporre le uova in una griglia tridimensionale su il libro, in modo che il laptop e il resto degli oggetti possano stare in equilibrio su di esso.

Il robot ha detto che il laptop si adatterà perfettamente ai bordi del libro e dell’uovo, e la sua superficie piatta e dura fornirà una piattaforma stabile per lo strato successivo. Il fatto che GPT-4 sia stato in grado di risolvere un enigma che richiedeva una comprensione del mondo fisico ha dimostrato che si trattava di un passo verso l’intelligenza artificiale generale (AGI), generalmente considerata macchine capaci quanto gli umani.

Tutte le cose che pensavi non potesse fare? “Certamente è stato in grado di fare molto, se non la maggior parte”, ha detto Sebastien Bobek, l’autore principale del giornale. I rapidi progressi della tecnologia hanno portato persone come l’investitore Ian Hogarth ad avvertire che l’IA è simile a un dio e potrebbe distruggere l’umanità rendendoci obsoleti.

Gli autori concludono che (questa prima versione di) GPT-4 fa parte di una nuova generazione di LLM (insieme a ChatGPT e PaLM di Google, ad esempio) che hanno un’intelligenza più generale rispetto ai precedenti modelli di intelligenza artificiale. Discutono delle crescenti capacità e implicazioni di questi modelli. Hanno dimostrato che oltre alla sua competenza linguistica, GPT-4 può risolvere compiti stimolanti e nuovi che coinvolgono matematica, programmazione, visione, medicina, legge, psicologia e altro, senza richiedere alcun cursore speciale.

READ  L’80% dei dispositivi Lenovo sarà riparabile dall’utente entro il 2025

Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine a quelle degli esseri umani, spesso superando di gran lunga i modelli precedenti. Data l’ampiezza e la profondità delle capacità di GPT-4, ritengono che possa ragionevolmente essere considerata una versione iniziale (ma ancora incompleta) di un sistema di intelligenza generale artificiale (AGI).

Nella loro esplorazione di GPT-4, si concentrano in particolare sulla scoperta dei suoi limiti e discutono delle sfide future nell’avanzamento verso versioni più profonde e complete dell’IA, inclusa la potenziale necessità di perseguire un nuovo paradigma che vada oltre le aspettative della parola futura .

Fonte: Ricerca Microsoft

La commozione cerebrale dello studio di Microsoft Research è rilevante?

Cosa ne pensi?

Secondo lei, quali sono i potenziali rischi di attribuire compiti importanti e sensibili a modelli non completamente compresi o inspiegabili?

Quali sono i limiti etici, sociali e ambientali alla formazione e all’utilizzo di modelli come GPT-4 su larga scala?
Quali sono le possibili alternative al modello di previsione della parola successiva per lo sviluppo di modelli di intelligenza artificiale più approfonditi e completi?

Guarda anche:

GPT-4: la nuova versione di OpenAI dell’intelligenza artificiale per l’elaborazione del linguaggio naturale potrebbe arrivare quest’estate, dovrebbe essere più snella di GPT-3, ma molto più potente

Microsoft afferma che GPT-4 mostra scintille di intelligenza generale artificiale e crediamo che l’intelligenza GPT-4 segnali un vero cambio di paradigma

GPT-4 produrrà informazioni false, molto più di GPT-3.5, secondo uno studio di NewsGuard, tuttavia, OpenAI ha dichiarato il contrario.

GPT-4 ottiene una B in un esame di informatica quantistica, dopo aver ottenuto una A in un esame di economia. Il professore osserva sarcasticamente che GPT-4 era più debole per quanto riguarda le questioni computazionali

GPT-4 è in grado di migliorare le proprie prestazioni del 30% utilizzando un processo autoriflessivo, che consiste nel chiedere al modello di imparare dai propri errori in modo che possa poi autocorreggersi