E’ nato Annabell, il primo cervello artificiale che interagisce con l’uomo

Annabell – La tecnologia in ogni campo continua ad evolversi in modo stupefacente, anno dopo anno la ricerca propone studi impensabili fino ad un decennio fa, oggi parliamo di un progetto, fantasia, sogno, dibattuto da oltre 30 anni, il cervello artificiale e le sue possibili potenzialità. Al momento ha solo, “minimizzando”, due milioni di neuroni contro circa il miliardo del cervello umano, o meglio, il cervello reale. Ma Annabell, questo il suo fantasioso nome , ha tanta strada ancora da fare, è in continua evoluzione,. Ad oggi è il primo cervello artificiale intelligente che ha imparato un linguaggio adeguato per poter dialogare con l’uomo a partire da zero, quando era cioè una vera e propria ‘tabula rasa’.

Ancora una volta l’Italia si rende protagonista dell’evoluzione tecnologica, infatti, Annabel è stato realizzato in Italia, dal gruppo di ricercatori dell’università di Sassari coordinato da Bruno Golosio, in collaborazione con il gruppo dell’università britannica di Plymouth guidato da Angelo Cangelosi. Descritto nella rivista Plos One.

Annabell (Artificial Neural Network with Adaptive Behavior Exploited for Language Learning) è un modello cognitivo fatto di due milioni di neuroni artificiali interconnessi e permetterà di studiare in dettaglio i processi che, nel cervello, rendono possibile sviluppare una funzione complessa come il linguaggio. È un passo in avanti notevole, considerando quanto sia difficile studiare questi processi in un organo complicato come il cervello umano, formato da circa un miliardo di neuroni in comunicazione tra loro attraverso segnali elettrici.

“È una sorta di cervello artificiale sviluppato per capire come le nostre competenze linguistiche emergono dai processi neurali che avvengono nel nostro cervello”, spiega Bruno Golosio. Siamo davanti ad un primo passo, Annabel crescerà con il tempo, è programmata per migliorare aumentando il numero dei neuroni in futuro. Ma i possibili sviluppi sono ancora più ambiziosi perché questo cervello artificiale potrebbe diventare parte di un robot sofisticato, con vista e tatto, capace di localizzare oggetti nello spazio e di controllare i movimenti.

 

Wikipediamo

L’intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è l’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana.

L’intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi, che manifesta aspetti teorici e pratici oltre che etici. Nel suo aspetto puramente informatico, essa comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano alle macchine (tipicamente ai calcolatori) di mostrare un’abilità e/o attività intelligente, almeno in domini specifici.

Uno dei problemi principali dell’intelligenza artificiale è quello di dare una definizione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo, per poter poi costruire dei modelli computazionali che le concretizzano e realizzano (in modo orientato all’obiettivo)

I primi passi

Nel XVII secolo, Blaise Pascal inventa la cosiddetta Pascalina per aiutare il padre, incaricato dall’amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. La macchina era capace di eseguire automaticamente addizione e sottrazione; questa “macchina aritmetica” fu la capostipite dei calcolatori ad ingranaggi, ispirata forse dalletavole Hi Ching dei taoisti orientali.

In età vittoriana, Charles Babbage creò macchine calcolatrici a rotelle: la macchina differenziale (The difference engine)riusciva a compiere calcoli differenziali, e Babbage arrivò a progettarne una programmabile, che però, per problemi tecnici, non riuscì mai a funzionare e che avrebbe dovuto essere programmata con schede perforate, come accadde in seguito con i primi calcolatori. Le schede perforate, cartoncini forati a seconda della necessità, furono ampiamente usate, per esempio, per il funzionamento delTelaio Jacquard, di pianole meccaniche, e poi dei primi calcolatori. Herman Hollerith (statistico statunitense di origine tedesca) ideò le schede perforate applicate a calcolatrici attorno al 1885; questo sistema fu usato per la prima volta per i calcoli relativi all’11º censimento U.S.A., nel 1891. Il sistema meccanografico adottato da Hollerith riscosse tale successo da indurlo a fondare la Tabulating Machine corporation. In seguito i calcolatori furono usati dalle forze armate per regolare il tiro dell’artiglieria.

La rivoluzione informatica

Se la teoria dell’IA evolve indipendentemente dai progressi scientifici, le sue applicazioni sono fortemente legate agli avanzamenti della tecnologia informatica. Infatti, solo nella seconda metà del XX secolo è possibile disporre di dispositivi di calcolo e linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sull’intelligenza.

La struttura dei calcolatori viene stravolta con la sostituzione dei relè, usati per i primi calcolatori elettromeccanici, con le valvole termoioniche o tubi elettronici. Nel 1946 nasceENIAC (Electronic Numerical Integrator And Calculator), concepito come calcolatore moderno nel 1945 da John von Neumann: eseguiva l’elaborazione a lotti (batch) nell’ordine di migliaia di informazioni al minuto. La programmazione avveniva comunque tramite schede.

La seconda generazione di computer si ha negli anni sessanta, The time sharing, sistemi basati sulla divisione di tempo e quindi più veloci; più terminali, soprattutto telescriventi, sono collegati a un calcolatore centrale. L’innovazione in questo periodo sta nel passaggio dalle valvole termoioniche ai transistor. A quell’epoca i programmi erano fortemente condizionati dai limiti dei linguaggi di programmazione, oltre che dai limiti di velocità e memoria degli elaboratori. La svolta si ha proprio tra gli anni ’50 e ’60, con linguaggi di manipolazione simbolica come l’ILP, il Lisp e il POP.

Verso l’IA moderna

Secondo le parole di Minsky, dopo il 1962 l’IA cambia le sue priorità: essa dà minore importanza all’apprendimento, mentre pone l’accento sulla rappresentazione della conoscenza e sul problema a essa connesso del superamento del formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi.

«Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani» (Minsky, 1968).

I punti cardine di questa ricerca sono gli studi di Minsky sulla rappresentazione distribuita della conoscenza, quella che viene chiamata la “società delle menti”, e il lavoro di John McCarthy sulla rappresentazione dichiarativa della conoscenza. Quest’ultima viene espressa formalmente mediante estensioni della logica dei predicati e può quindi essere manipolata facilmente. Con i suoi studi sul “ragionamento non monotono” e “di default“, McCarthy contribuisce a porre gran parte delle basi teoriche dell’IA.

Il punto di vista psicologico non viene trascurato. Ad esempio, il programma EPAM (Feigenbaum e Feldman, 1963) esplora la relazione tra memoria associativa e l’atto di dimenticare. Alla Carnegie Mellon University vengono sperimentati programmi per riprodurre i passi del ragionamento, inclusi eventuali errori.

L’elaborazione del linguaggio naturale sembra essere un campo destinato a un rapido sviluppo. La traduzione diretta di testi porta però a insuccessi che influenzeranno per molti anni i finanziamenti in tale campo. Malgrado ciò, viene dimostrato abbastanza presto che si possono ottenere buoni risultati in contesti limitati.

I primi anni settanta vedono lo sviluppo dei sistemi di produzione, ossia dei programmi che sfruttano un insieme di conoscenze organizzate in base di dati, attraverso l’applicazione di regole di produzione, per ottenere risposte a domande precise. I sistemi esperti hanno sostituito i sistemi di produzione per via delle difficoltà incontrate da questi ultimi, con particolare riferimento alla necessità di fornire inizialmente la conoscenza in forma esplicita e la poca flessibilità delle regole di produzione. Questi sistemi, di cuiDendral è il più rappresentativo, mostrano le enormi possibilità offerte da un efficace sfruttamento di (relativamente) poche basi di conoscenza per programmi capaci di prendere decisioni o fornire avvisi in molte aree diverse. In pratica l’analisi dei dati è stata razionalizzata e generalizzata.

Si pone ora il problema del trattamento dell’incertezza, che è parte costituente della realtà e delle problematiche più comuni. Mycin introduce l’uso di “valori di certezza”: un numero associato a ciascun dato e che viene calcolato per la nuova conoscenza inferita.

Malgrado ciò, le difficoltà nel trattare correttamente l’incertezza portano ad abbandonare l’uso di sistemi a regole per avvicinarsi a quella che è la moderna IA.

Nell’anno 2006 si è celebrato il cinquantesimo anniversario dell’Intelligenza artificiale con due congressi: AI@50 “Dartmouth Artificial Intelligence Conference: The Next Fifty Years”, e il congresso 50 anni di Intelligenza Artificiale – Campus Multidisciplinare in Percezione e Intelligenza 2006 o CMPI, un congresso di referenza multidisciplinare, nel quale cento esperti si sono riuniti ad Albacete (Spagna) per celebrare il cinquantesimo anniversario dell’intelligenza artificiale, con la Conferenza di Dartmouth.

Rome
cielo coperto
17.4 ° C
18.1 °
17 °
93 %
3.6kmh
100 %
Gio
21 °
Ven
22 °
Sab
28 °
Dom
27 °
Lun
20 °

Ultimi articoli

ad

Related articles