logo
logo Case Terrasini: sole, mare, storia, cultura e relax, case,
quanto di meglio puoi trovare nel Mediterraneo
Facebook

"L'origine dell'intelligenza artificiale: dalla sintassi alla semantica, al subsimbolico"






A partire dal 1949 Donald O. Hebb dimostrò come una semplice regola di aggiornamento per modificare le forze di connessione fra i neuroni potesse dare luogo a processi di apprendimento.



In merito alle origini dell'intelligenza artificiale si fa riferimento alla cibernetica e all'avvento dei primi calcolatori elettronici. Si citano inoltre Charles Babbage e la sua macchina analitica, Gottfried Wilhelm Leibniz e il suo progetto di meccanizzare la ragione, risalendo fino alla macchina logica di Raimondo Lullo e agli automi semoventi di Erone di Alessandria.

Ma è al 1956 che la comunità scientifica, in maniera quasi unanime, fa risalire la nascita della intelligenza artificiale (Artificial Intelligence, AI), anno del famoso seminario estivo tenutosi presso il Dartmouth College di Hannover, nel New Hampshire in America. In questa occasione questa nuova disciplina venne fondata programmaticamente, a partire dalla raccolta dei contributi sviluppati negli anni precedenti e in direzione delle potenzialità future.

Questa data segnò l'inizio ufficiale di una nuova disciplina che il matematico John McCarthy, professore a Dartmouth, uno degli organizzatori del seminario, propose di chiamare intelligenza artificiale. Gli altri organizzatori erano Marvin Minsky, ricercatore di matematica e neurologia ad Harvard, Nathaniel Rochester, direttore della ricerca sull'informazione in un centro ricerche dell'IBM, e Claude E. Shannon, il matematico già famoso per la teoria dell'informazione. Si trattò di un dibattito aperto e poco strutturato dal quale emerse, attraverso le discussioni comuni, un nuovo approccio teoretico teso a definire la possibilità della riproduzione dell'intelligenza da parte di un elaboratore elettronico.

Poiché per avere successo l'intelligenza artificiale doveva disporre di un sistema artificiale nel quale riprodurre, emulandoli, i fenomeni dell'intelligenza, l'elaboratore fu considerato fin dall'inizio come il miglior candidato a questo ruolo. Alla base dell'elaboratore vi è il concetto di macchina di Turing, un sistema concettuale in grado di trovarsi in un numero finito di stati diversi e di eseguire un numero limitato di azioni, al fine di poter esprimere qualsiasi tipo di procedura definita.

Il concetto di algoritmo può essere ricondotto alla sequenza di operazioni svolte dalla macchina di Turing. Il contributo di Turing all'intelligenza artificiale dovrebbe essere riconosciuto non solo nell'ambito dei fondamenti dell'informatica, ma anche in quello del dibattito filosofico relativo ai limiti e alle potenzialità delle nuove macchine pensanti. In un noto articolo del 1950, Turing propose il famoso test che porta il suo nome per verificare la presenza o meno di intelligenza in una macchina.

Tanti furono gli approcci negli anni successivi, condizionati anche dalla nascita di nuove discipline. Nacquero così i primi "sistemi esperti". Il primo sistema esperto, DENDRAL, venne programmato per inferire la struttura di molecole organiche in base alle loro formule chimiche; MYCIN, forse il più conosciuto tra i sistemi esperti, incorporava conoscenza medica specifica che usava per diagnosticare e prescrivere trattamenti per le infezioni batteriche del sangue a partire da informazioni incomplete e incerte sui sintomi.

In questi anni si assistette al passaggio dall'attenzione per la sintassi a quella per la semantica.

Ed all'inizio degli anni Ottanta dello scorso secolo nacque l'intelligenza artificiale come industria. Nel 1982 venne progettato il primo sistema esperto commerciale di successo, che supportava le configurazioni di ordini per nuovi sistemi di elaborazione in un'azienda produttrice. L'intelligenza artificiale entrò a far parte di un ampio sforzo che includeva la progettazione di chip e la ricerca relativa alle interfacce uomo-macchina. Parallelamente si assistette al ritorno dell'approccio basato sulle reti neurali: intorno al 1985 quattro differenti gruppi di ricerca inventarono nuovamente un algoritmo di apprendimento, già scoperto anni prima, basato sulla retropropagazione dell'errore e lo applicarono con successo a molti problemi di apprendimento in informatica e ingegneria.

Negli ultimi anni l'intelligenza artificiale è stata caratterizzata da numerosi cambiamenti sia a livello metodologico sia a livello contenutistico. Attualmente la tendenza comune è quella di partire da teorie già esistenti piuttosto che inventarne di nuove, basando le asserzioni su teoremi rigorosamente dimostrati o su evidenze sperimentali. L'attenzione è stata rivolta a problemi reali chiaramente delimitati, come il riconoscimento del parlato o la pianificazione delle attività di una fabbrica.

Ciò che resta della caratterizzazione dell'intelligenza artificiale delle origini, è la pluralità di approcci: accanto al tradizionale approccio logico della rappresentazione della conoscenza, ha acquistato peso crescente l'approccio subsimbolico, concepito per dotare i sistemi di intelligenza artificiale di prestazioni intelligenti anche senza una rappresentazione dettagliata della conoscenza.

Francesco Cicerone



"L'origine dell'intelligenza artificiale: dalla sintassi alla semantica, al subsimbolico"






A partire dal 1949 Donald O. Hebb dimostrò come una semplice regola di aggiornamento per modificare le forze di connessione fra i neuroni potesse dare luogo a processi di apprendimento.



In merito alle origini dell'intelligenza artificiale si fa riferimento alla cibernetica e all'avvento dei primi calcolatori elettronici. Si citano inoltre Charles Babbage e la sua macchina analitica, Gottfried Wilhelm Leibniz e il suo progetto di meccanizzare la ragione, risalendo fino alla macchina logica di Raimondo Lullo e agli automi semoventi di Erone di Alessandria.

Ma è al 1956 che la comunità scientifica, in maniera quasi unanime, fa risalire la nascita della intelligenza artificiale (Artificial Intelligence, AI), anno del famoso seminario estivo tenutosi presso il Dartmouth College di Hannover, nel New Hampshire in America. In questa occasione questa nuova disciplina venne fondata programmaticamente, a partire dalla raccolta dei contributi sviluppati negli anni precedenti e in direzione delle potenzialità future.

Questa data segnò l'inizio ufficiale di una nuova disciplina che il matematico John McCarthy, professore a Dartmouth, uno degli organizzatori del seminario, propose di chiamare intelligenza artificiale. Gli altri organizzatori erano Marvin Minsky, ricercatore di matematica e neurologia ad Harvard, Nathaniel Rochester, direttore della ricerca sull'informazione in un centro ricerche dell'IBM, e Claude E. Shannon, il matematico già famoso per la teoria dell'informazione. Si trattò di un dibattito aperto e poco strutturato dal quale emerse, attraverso le discussioni comuni, un nuovo approccio teoretico teso a definire la possibilità della riproduzione dell'intelligenza da parte di un elaboratore elettronico.

Poiché per avere successo l'intelligenza artificiale doveva disporre di un sistema artificiale nel quale riprodurre, emulandoli, i fenomeni dell'intelligenza, l'elaboratore fu considerato fin dall'inizio come il miglior candidato a questo ruolo. Alla base dell'elaboratore vi è il concetto di macchina di Turing, un sistema concettuale in grado di trovarsi in un numero finito di stati diversi e di eseguire un numero limitato di azioni, al fine di poter esprimere qualsiasi tipo di procedura definita.

Il concetto di algoritmo può essere ricondotto alla sequenza di operazioni svolte dalla macchina di Turing. Il contributo di Turing all'intelligenza artificiale dovrebbe essere riconosciuto non solo nell'ambito dei fondamenti dell'informatica, ma anche in quello del dibattito filosofico relativo ai limiti e alle potenzialità delle nuove macchine pensanti. In un noto articolo del 1950, Turing propose il famoso test che porta il suo nome per verificare la presenza o meno di intelligenza in una macchina.

Tanti furono gli approcci negli anni successivi, condizionati anche dalla nascita di nuove discipline. Nacquero così i primi "sistemi esperti". Il primo sistema esperto, DENDRAL, venne programmato per inferire la struttura di molecole organiche in base alle loro formule chimiche; MYCIN, forse il più conosciuto tra i sistemi esperti, incorporava conoscenza medica specifica che usava per diagnosticare e prescrivere trattamenti per le infezioni batteriche del sangue a partire da informazioni incomplete e incerte sui sintomi.

In questi anni si assistette al passaggio dall'attenzione per la sintassi a quella per la semantica.

Ed all'inizio degli anni Ottanta dello scorso secolo nacque l'intelligenza artificiale come industria. Nel 1982 venne progettato il primo sistema esperto commerciale di successo, che supportava le configurazioni di ordini per nuovi sistemi di elaborazione in un'azienda produttrice. L'intelligenza artificiale entrò a far parte di un ampio sforzo che includeva la progettazione di chip e la ricerca relativa alle interfacce uomo-macchina. Parallelamente si assistette al ritorno dell'approccio basato sulle reti neurali: intorno al 1985 quattro differenti gruppi di ricerca inventarono nuovamente un algoritmo di apprendimento, già scoperto anni prima, basato sulla retropropagazione dell'errore e lo applicarono con successo a molti problemi di apprendimento in informatica e ingegneria.

Negli ultimi anni l'intelligenza artificiale è stata caratterizzata da numerosi cambiamenti sia a livello metodologico sia a livello contenutistico. Attualmente la tendenza comune è quella di partire da teorie già esistenti piuttosto che inventarne di nuove, basando le asserzioni su teoremi rigorosamente dimostrati o su evidenze sperimentali. L'attenzione è stata rivolta a problemi reali chiaramente delimitati, come il riconoscimento del parlato o la pianificazione delle attività di una fabbrica.

Ciò che resta della caratterizzazione dell'intelligenza artificiale delle origini, è la pluralità di approcci: accanto al tradizionale approccio logico della rappresentazione della conoscenza, ha acquistato peso crescente l'approccio subsimbolico, concepito per dotare i sistemi di intelligenza artificiale di prestazioni intelligenti anche senza una rappresentazione dettagliata della conoscenza.

Francesco Cicerone



"L'origine dell'intelligenza artificiale: dalla sintassi alla semantica, al subsimbolico"






A partire dal 1949 Donald O. Hebb dimostrò come una semplice regola di aggiornamento per modificare le forze di connessione fra i neuroni potesse dare luogo a processi di apprendimento.



In merito alle origini dell'intelligenza artificiale si fa riferimento alla cibernetica e all'avvento dei primi calcolatori elettronici. Si citano inoltre Charles Babbage e la sua macchina analitica, Gottfried Wilhelm Leibniz e il suo progetto di meccanizzare la ragione, risalendo fino alla macchina logica di Raimondo Lullo e agli automi semoventi di Erone di Alessandria.

Ma è al 1956 che la comunità scientifica, in maniera quasi unanime, fa risalire la nascita della intelligenza artificiale (Artificial Intelligence, AI), anno del famoso seminario estivo tenutosi presso il Dartmouth College di Hannover, nel New Hampshire in America. In questa occasione questa nuova disciplina venne fondata programmaticamente, a partire dalla raccolta dei contributi sviluppati negli anni precedenti e in direzione delle potenzialità future.

Questa data segnò l'inizio ufficiale di una nuova disciplina che il matematico John McCarthy, professore a Dartmouth, uno degli organizzatori del seminario, propose di chiamare intelligenza artificiale. Gli altri organizzatori erano Marvin Minsky, ricercatore di matematica e neurologia ad Harvard, Nathaniel Rochester, direttore della ricerca sull'informazione in un centro ricerche dell'IBM, e Claude E. Shannon, il matematico già famoso per la teoria dell'informazione. Si trattò di un dibattito aperto e poco strutturato dal quale emerse, attraverso le discussioni comuni, un nuovo approccio teoretico teso a definire la possibilità della riproduzione dell'intelligenza da parte di un elaboratore elettronico.

Poiché per avere successo l'intelligenza artificiale doveva disporre di un sistema artificiale nel quale riprodurre, emulandoli, i fenomeni dell'intelligenza, l'elaboratore fu considerato fin dall'inizio come il miglior candidato a questo ruolo. Alla base dell'elaboratore vi è il concetto di macchina di Turing, un sistema concettuale in grado di trovarsi in un numero finito di stati diversi e di eseguire un numero limitato di azioni, al fine di poter esprimere qualsiasi tipo di procedura definita.

Il concetto di algoritmo può essere ricondotto alla sequenza di operazioni svolte dalla macchina di Turing. Il contributo di Turing all'intelligenza artificiale dovrebbe essere riconosciuto non solo nell'ambito dei fondamenti dell'informatica, ma anche in quello del dibattito filosofico relativo ai limiti e alle potenzialità delle nuove macchine pensanti. In un noto articolo del 1950, Turing propose il famoso test che porta il suo nome per verificare la presenza o meno di intelligenza in una macchina.

Tanti furono gli approcci negli anni successivi, condizionati anche dalla nascita di nuove discipline. Nacquero così i primi "sistemi esperti". Il primo sistema esperto, DENDRAL, venne programmato per inferire la struttura di molecole organiche in base alle loro formule chimiche; MYCIN, forse il più conosciuto tra i sistemi esperti, incorporava conoscenza medica specifica che usava per diagnosticare e prescrivere trattamenti per le infezioni batteriche del sangue a partire da informazioni incomplete e incerte sui sintomi.

In questi anni si assistette al passaggio dall'attenzione per la sintassi a quella per la semantica.

Ed all'inizio degli anni Ottanta dello scorso secolo nacque l'intelligenza artificiale come industria. Nel 1982 venne progettato il primo sistema esperto commerciale di successo, che supportava le configurazioni di ordini per nuovi sistemi di elaborazione in un'azienda produttrice. L'intelligenza artificiale entrò a far parte di un ampio sforzo che includeva la progettazione di chip e la ricerca relativa alle interfacce uomo-macchina. Parallelamente si assistette al ritorno dell'approccio basato sulle reti neurali: intorno al 1985 quattro differenti gruppi di ricerca inventarono nuovamente un algoritmo di apprendimento, già scoperto anni prima, basato sulla retropropagazione dell'errore e lo applicarono con successo a molti problemi di apprendimento in informatica e ingegneria.

Negli ultimi anni l'intelligenza artificiale è stata caratterizzata da numerosi cambiamenti sia a livello metodologico sia a livello contenutistico. Attualmente la tendenza comune è quella di partire da teorie già esistenti piuttosto che inventarne di nuove, basando le asserzioni su teoremi rigorosamente dimostrati o su evidenze sperimentali. L'attenzione è stata rivolta a problemi reali chiaramente delimitati, come il riconoscimento del parlato o la pianificazione delle attività di una fabbrica.

Ciò che resta della caratterizzazione dell'intelligenza artificiale delle origini, è la pluralità di approcci: accanto al tradizionale approccio logico della rappresentazione della conoscenza, ha acquistato peso crescente l'approccio subsimbolico, concepito per dotare i sistemi di intelligenza artificiale di prestazioni intelligenti anche senza una rappresentazione dettagliata della conoscenza.

Francesco Cicerone



 PAGINE [ più recente: 3 ] [ archivio: 2 - 1 - ]

Powered by MMS - © 2017 EUROTEAM